几乎在你按下发送按钮的瞬间,大模型便以惊人的速度完成了回复的生成。这一次,Groq大模型以每秒500个token,彻底颠覆了GPT-4的40 tok/s的速度纪录!
Groq之所以“出圈”,缘于其惊人的速度,自称“史上最快大模型”!而让其冠绝大模型圈子的响应速度,来自驱动模型的新型AI芯片——LPU(Language Processing Units)。
Groq家的LPU“不走寻常路”
LPU旨在克服两大大语言模型(LLM)的瓶颈——计算密度和内存带宽。与GPU和CPU相比,LPU在处理LLM方面具有更大的计算能力。这减少了每个单词计算所需的时间,使文本序列能够被更快地生成。此外,消除外部内存瓶颈使得LPU推理引擎能够在性能上实现数量级的提升。
与专为图形渲染而设计的GPU不同,LPU采用了一种全新的架构,旨在为AI计算提供确定性的性能。
GPU采用的是SIMD(单指令多数据),而LPU采取了更为直线化的方法,避免了复杂的调度硬件需求。这种设计允许每个时钟周期都被有效利用,确保了一致的延迟和吞吐量。
简单来说,如果把GPU比作一支精英运动队,每个成员都擅长处理多任务,但需要复杂的协调才能发挥最佳效能,那么LPU就像是一支由单一项目专家组成的队伍,每个成员都在他们最擅长的领域中以最直接的方式完成任务。
对于开发者而言,这意味着性能可以被精确预测和优化,这在实时AI应用中至关重要。
在能效方面,LPU也展现出其优势。通过减少管理多线程的开销并避免核心的低效利用,LPU能够以更低的能耗完成更多的计算任务。
Groq还允许多个TSP无缝连接,避开了GPU集群中常见的瓶颈问题,实现了极高的可扩展性。这意味着随着更多LPU的加入,性能可以线性扩展,简化了大规模AI模型的硬件需求,使开发者能够更容易地扩展他们的应用,而无需重新架构系统。
举例来说,如果把GPU集群比作一座由多条桥梁连接的岛屿,尽管可以通过这些桥梁访问更多的资源,但桥梁的容量限制了性能的提升。而LPU则像是设计了一种新型的交通系统,通过允许多个处理单元无缝连接,避免了传统瓶颈问题。这意味着随着更多LPU的加入,性能可以线性扩展,大大简化了大规模AI模型的硬件需求,使得开发者能够更容易地扩展他们的应用,而无需重新架构整个系统。
快如闪电的Groq到底好不好用?
尽管LPU的创新举措令人瞠目,但对于通用大模型而言,好不好用才是关键。
我们对于chatGPT和Groq 提出了相同的需求,且没有经过二次对话。
不论内容正确与否,单从语言风格上看,从两款模型给出的反馈不难发现,Groq 的回复一板一眼有些生硬,很浓的“AI味”,而chatGPT则相对自然,对于人类语言(中文)习惯的“领悟”更加透彻。
接着我们又问了几乎同样的问题,它们的回答这这样的:
GPT的语言风格把“人情世故”吃的透透的,而Groq依旧是“AI味”浓厚。
能不能取代英伟达的GPU?
伴随着Groq极速狂飙的同时,出现了一票声音——英伟达的GPU是否已经落后了?
然而,速度并不是AI发展的唯一决定性因素。在讨论大型模型推理部署时,7B(70亿参数)模型的例子很能说明问题。
目前,部署这样一个模型大约需要14GB以上的内存。以此为基础,大概需要70个专用芯片,每个芯片对应一张计算卡。如果采用一种常见的配置,即一个4U服务器装载8张计算卡,那么部署一个7B模型就需要9台4U服务器,几乎占满了一个标准的服务器机柜。总共需要72个计算芯片,这样配置下的计算能力在FP16模式下达到了惊人的13.5P(PetaFLOPS),而在INT8模式下更是高达54P。
以英伟达的H100为例,其拥有80GB的高带宽内存,可以同时运行5个7B模型。在FP16模式下,经过稀疏化优化的H100的计算能力接近2P,在INT8模式下则接近4P。
一位国外的博主作了对比,结果显示:以INT8模式进行推理,使用Groq的方案需要9台服务器。而9台Groq服务器的成本远高于2台H100服务器。而Groq方案的成本超过160万美金,而H100服务器的成本为60万美金,这还未包括机架相关费用和电费开销。
对于更大的模型,如70B参数模型,使用INT8模式可能需要至少600张计算卡,接近80台服务器,成本更是天文数字。
事实上,于Groq的架构来讲,或需要建立在小内存,大算力上,让有限的被处理的内容对应着极高的算力,导致其速度非常快。
而对于部署推理能力的大模型,性价比最高的,依旧是英伟达的GPU。
好文章,需要你的鼓励
这项由复旦、港科大等多校联合完成的研究首次系统性地解决了大型AI模型在识别场景文字时产生"语义幻觉"的问题。研究团队发现AI模型常将视觉上模糊的文字"脑补"成有意义但错误的词汇,并开发了包含ZoomText定位策略和接地层修正机制的训练无关解决方案,在多个基准测试中实现显著性能提升,为提高AI视觉系统可靠性提供了重要突破。
IBM研究院发布AssetOpsBench,全球首个工业资产AI代理评估平台。该研究建立了多代理协作框架,涵盖IoT数据采集、时序分析、故障诊断等专业模块,通过141个真实场景和六维评估标准测试AI在复杂工业运维中的表现。测试显示当前AI技术仍有改进空间,为工业4.0时代的智能运维发展提供重要基准。
韩国科学技术院研究团队开发出Simba方法,通过层次化稀疏化技术对状态空间模型进行"瘦身",在保持性能的同时显著提升计算效率。该方法采用类似高速公路的架构设计,让AI模型的上层只处理最重要的信息,实现了最高80%的速度提升和更好的长序列处理能力。这项即插即用的技术为AI模型优化提供了新思路。
这项研究展示了一个基于ModernBERT架构的prompt injection检测模型,通过精心构建的多样化数据集训练,在内部测试中达到98.7%准确率和98.0% F1分数,在公开基准测试中平均F1分数达93.8%,显著超越现有最强基线系统。该模型推理速度仅0.02秒,具备实时检测能力,为AI系统安全防护提供了新的解决方案。