英特尔正凭借至强等一系列处理器产品重回巅峰。
在本届英特尔Innovation创新大会上,芯片巨头正全力聚焦AI科技。会上,英特尔CEO Pat Gelsinger给出了我们迄今为止看到过的,关于AI如何为日常生活提供支持的最完整的发展愿景。
AI已经无处不在,相信很多朋友都已经感受到了这股力量的崛起。但具体要如何落地,我们可能需要结合AI在日常场景中的演示才能体会到其能量。Innovation主题演讲期间,Gelsinger就多次将这个抽象概念转化为现实,从AI驱动型“智能”且听器到帮助生物科技公司更快、更便宜、更准确地开展研究,这届以“AI无处不在”为主题的英特尔Innovation 2023确实给我们留下了深刻印象。
英特尔创新引擎已经回归
几周之前,我们曾经发文就Hot Chips放出的消息介绍了英特尔最新动态。而Innovation大会则更进一步,将这些动态与更宏观的AI背景联系起来。
在Hot Chips上,英特尔公司透过了其下一代(即第五代)至强系列处理器的更多细节。对于这个声名显赫的产品家族,英特尔将在同一通用计算复合体上提供两种不同核心。首先是Granite Rapids,搭载英特尔的性能核(P核),旨在满足企业客户运行分析、电子设计自动化(EDA)、HPC、AI等高性能工作负载的需求。
其二则是Sierra Forest,采用至强能效核(E核),专为横向扩展所设计,重点关注每瓦性能。围绕此架构设计的服务器主要用于支持虚拟化和云原生类工作负载,相信能够在AWS、微软Azure、Google Cloud Platform和Oracle Cloud Infrastructure等云服务商的超大规模基础设施中找到不少受众。
Granite Rapids和Sierra Forest可全方位满足各类计算需求。
在Hot Chips上,英特尔还公布了Granite Rapids和Sierra Forest的设计规格。虽然关于Granite Rapids的细节还很模糊,但英特尔强调Sierra Forest的每个插槽可容纳144个核心,意味着该芯片的核心数量将高于AMD Bergamo(128核心),但低于Ampere在AmpereOne上提供的192核心。
时间快进三周,英特尔在Innovation 2023上带来了更多惊喜。官方确认Sierra Forest芯片最多可支持288核心,而非144核。于是Sierra Forest不仅是成功领先于AMD和Ampere,而且是遥遥领先。虽然关于性能、功耗、I/O等指标还有很多不明之处,但公布的成果仍然堪称震撼人心。仅用了一次迭代的时间,英特尔公司就在核心数量的军备竞赛中从落后者变成了领先者。
Sierra Forest的公告也回应了我们对英特尔重新回归创新巅峰的期待,而且更直接的体现应该在该公司推出的Sapphire Rapids第四代至强处理器这边。虽然这款CPU由于制造问题而被推迟,但英特尔在设计中引入了新颖方法。它没有选择与竞争对手展开“核心竞赛”,而是专注于在计算复合体中作为独立引擎以推动工作负载加速。这是一项相当明智的战略,随着英特尔奋力缩小核心数量/核心性能的差距,至强将在市场上获得更强大的竞争地位,并在Granite Rapids这代芯片中完成临门一脚。
驱动“芯片经济”需要的不仅仅是芯片
在主题演讲当中,Gelsinger创造了“芯片经济”一词,指的是技术对于现代经济的驱动作用。在他看来,这标志着当前全球经济驱动力已经与过去几十年出现了显著区别。
但芯片经济所关注的绝不仅仅是芯片,也不是为高级工作负载设计的CPU、GPU和其他定制芯片。其中涉及支持软件生态系统的一切芯片和基础设施——包括语言、模型、框架和部署等各种元素。最后,它让架构师和开发人员能够根据自己的特定需求试验、构建和优化AI。
在今年的Innovation大会上,英特尔宣布将全面推出Intel Developer Cloud,这是一个专为上述用例而生的虚拟实验室。在这套功能齐全的环境中,开发人员可以在全系英特尔技术(CPU、GPU、FPGA以及英特尔全套软件库与工具)之上构建、测试并高速以数据为中心的各类应用。
英特尔提供各种元素,帮助客户乘上“芯片经济”东风。
除了Developer Cloud之外,英特尔还展示了其对AI无处不在前景的全面支持——从CPU到制造,再到UCIe(在同一芯片上支持不同厂商元件间的互连)和玻璃晶圆。即使对于长期关注半导体行业的分析师,要想完全理解英特尔在芯片级别完成的所有工作和支持AI等复杂工作负载的研发进展,仍然不是件容易的事情。更遑论本届大会上还发布了平台、工具、软件和数据等上游(或栈上)需求,以及这些需求将如何反过来影响芯片设计。总而言之,英特尔在推动AI进入各个领域方面所做出的努力着实令人印象深刻。
借“芯片经济”大势化敌为友
目前的AI环境当中,存在各种专用型硬件支持训练(机器学习)和推理环境。虽然英特尔已经掌握着能够满足AI技术栈中各类具体需求的解决方案,但组织客户往往会使用不同的技术模块来搭建适合自己的性能与成本配置组合,包括使用其他厂商的CPU和加速器。于是乎,训练环境往往与推理环境完全不同,具体元素的排列组合也将无穷无尽。
但这就是我们生活的世界。虽然英特尔、AMD、英伟达、Ampere及其他Arm厂商都在积极争夺市场份额,但互操作性和开放标准仍然在逐步形成,也只有这样才能让客户放心大胆地予以采用。芯片经济体量庞大、而且正在呈指数级增长,相信每家厂商在其中都将拥有自己的生存空间。
写在最后
英特尔Innovation大会已经闭幕,也让我们对于芯片巨头打算如何在数据中心的设计的构建领域重回巅峰有了新的认识。最近一段时间,英特尔公司已经在全球芯片制造领域投入1000亿美元,新厂遍及俄勒冈州、亚利桑那州、新墨西哥州和俄亥俄州。
但各位竞争对手也绝不会退缩。AMD正通过EPYC发布一代又一代处理器产品,Ampere凭借Altra和AmpereOne带来强劲表现。这场激烈的对抗帮助英特尔巩固了自身实力,加快了创新引擎的重启。最终,这一切将给每个人带来助益,既包括开发者和数据科学家、也包括每一位在日常生活中或多或少接触到AI的普通民众。竞争吧,合作吧,共同塑造新的AI时代吧!
好文章,需要你的鼓励
这篇研究介绍了KVzip,一种创新的查询无关KV缓存压缩方法,通过上下文重建机制为大型语言模型提供高效存储解决方案。该技术能将KV缓存大小减少394倍,同时提高解码速度约2倍,在各种任务上性能几乎不受影响。不同于传统查询相关的压缩方法,KVzip创建可在多种查询场景下重用的通用压缩缓存,特别适合个性化AI助手和企业信息检索系统。研究在LLaMA3.1-8B、Qwen2.5-14B和Gemma3-12B等多种模型上进行了验证,处理长度高达17万词元的文本,并能与KV缓存量化等其他优化技术无缝集成。
腾讯与上海交通大学联合推出的DeepTheorem研究突破了大型语言模型在数学定理证明领域的限制。该项目创建了包含12.1万个IMO级别非形式化定理的大规模数据集,开发了专门的RL-Zero强化学习策略,并设计了全面的评估框架。研究表明,通过使用自然语言而非传统形式化系统,即使是7B参数的模型也能在复杂定理证明上取得显著成果,超越许多更大的专业模型。这一成果为AI数学推理开辟了新途径,使语言模型能够像人类数学家一样思考和证明。
MAGREF是字节跳动智能创作团队开发的多主体视频生成框架,能从多张参考图像和文本提示生成高质量视频。该技术引入了区域感知动态遮罩机制,使单一模型灵活处理人物、物体和背景,无需架构变化;并采用像素级通道拼接机制,在通道维度上运作以更好地保留外观特征。实验表明,MAGREF在身份一致性和视觉质量方面优于现有技术,能将单主体训练泛化到复杂多主体场景,为内容创作者提供了强大而便捷的视频生成工具。
这项研究揭示了大型语言模型(LLMs)偏好决策的内在机制。以色列理工学院和IBM研究院的团队开发了一种自动化方法,不需人工预设即可发现和解释影响AI判断的关键概念。研究横跨八个领域(从一般问答到安全评估),分析了12种偏好机制,发现人类评判者重视权威性和清晰度,而AI评判更关注事实准确性。他们提出的层次多领域回归模型不仅能准确预测偏好,还能清晰解释判断过程,为构建更透明、更符合人类价值观的AI系统提供了新途径。