英特尔的产品中竟然出现了Arm架构芯片,有点让人意外,但事实的确如此。在不久前举行的英特尔架构日上,英特尔发布了一款名为Mount Evans的新品,英特尔将它定义为IPU,但它的目标直指英伟达及Marvell的DPU产品。根据英特尔的描述,Mount Evans最多可封装16个ARM Neoverse N1核心。英特尔为何使用Arm而非x86?这背后是英特尔对现实的考量:Arm已经成为DPU标准,Marvell在其Octeon系列中使用的也是Arm架构,英伟达的DPU BlueField中也是Arm架构。显然,英特尔在Mount Evans中使用Arm是从保持长期竞争力的需求出发。
Mount Evant只是Arm Neoverse的一个成功案例。Neoverse是Arm 2018年发布的一个产品系列,定位是基础设施领域的四个细分市场,具体包括超大规模公有云的互联网领域、高性能计算、5G/网络领域和边缘设备网关。
“基础设施市场变化非常快速也在不断地发展,为了满足这个市场的多样性与快速变化,市场必然会出现不同类型的计算解决方案,例如针对云计算的 CPU 解决方案。而 Arm 作为全球领先的 IP 供应商,我们要为满足云需求而推出的多样化创新技术,这也是我们推出 Neoverse 平台的一个初衷。”Arm基础设施事业部全球高级总监邹挺表示。
据悉,Arm Neoverse平台产品路线图目前有三个系列:V系列、N系列、E系列。其中,V系列强调以性能为优先的新型计算系列,目前以Neoverse V1平台为代表;N系列平台追求PPA(即性能、功耗、面积)的平衡设计,目前该系列的产品有Neoverse N1与N2平台;E系列平台主要关注点是吞吐量效率,在功耗和面积的缩减上进行了优化,对于网络流量和数据应用程序非常有效,目前以Neoverse E1平台为代表。

邹挺介绍,Arm Neoverse已经得到了市场的初步认可。那些超大型互联网客户通过 Arm IP 来进行定制化服务器芯片,以满足他们的特殊应用场景需求。同时,也有大量的企业客户对于标准化 Arm 服务器芯片所带给他们的高性价比、优异的 TCO 表现,有着很浓烈的兴趣,这也给独立的 Arm 服务器芯片厂商带来非常广阔的市场前景。而在中国市场,二线互联网和企业市场对于标准化 Arm 服务器需求的高速增长,为独立 Arm 服务器芯片厂商带来了非常大的机遇。
在Neoverse进入市场的过程中,大型云服务商是主要推手。AWS就对Arm Neoverse非常积极,AWS基于Arm架构的自研芯片 Graviton 快速地布建于AWS 的各个服务区域。甲骨文发布Ampere A1 Compute,将基于 Arm 架构的实例引进 Oracle 云端基础设施(OCI),同时也是通过 Ampere Altra 向市场推出业界首款 80 核的 Arm 架构服务器SoC,以及第一颗为现代云与边缘计算数据中心推出的云原生 CPU。
中国云服务商对Arm的态度也是积极的。阿里云推出云服务器ECS Arm实例规格族公测,基于Arm架构处理器与第三代神龙架构的通用性实例g6r已经上线,为用户提供高性价比、高单核算力等优势,适用容器应用、大数据计算、通用互联网应用等场景。百度智能云数据库正积极发展 Arm 平台数据库产品,腾讯也持续在 Arm 架构上进行优化与实践工作。
在芯片厂商这方面, Ampere Computing非常积极。继今年3月发布的“首款云原生处理器”Ampere Altra,拥有80个64位Arm 处理器内核,后续进一步披露了其云原生处理器系列产品的扩展成员Ampere Altra Max的初步信息,该产品将拥有128个内核,可兼容Ampere 80核的Altra处理器,并支持双路服务器平台。
邹挺表示,中国是Arm非常重视的市场。与海外半导体芯片产业已经进入产业成熟期和供应链厂商的版图稳定期不同,中国目前是自发增长而且高速成长的市场,在过去 18 个月,我们也看到很多的新兴半导体企业带着创意在不同赛道寻求落地实现的机会。Arm Neoverse IP 平台为基础设施领域的芯片开发提供了一个非常有竞争力的竞争。邹挺透露,在中国市场Arm将重点关注云数据中心/超大型互联网领域、和5G网络/电信市场这两个垂直领域。
根据Arm最新公布的资讯,目前Arm累计授权合作伙伴多达530家,累计授权数量多达1,910件。而合作伙伴基于Arm架构的芯片出货量累计超过1,900亿颗,以2020年来看,年度出货量达237亿颗。 Arm强大的生态给了Arm Neoverse非常强大的支持。按照目前的态势发展,Arm架构不可避免地会对以英特尔为代表的x86架构带来一定冲击,到底会带来多大影响?我们拭目以待。
好文章,需要你的鼓励
很多人担心被AI取代,陷入无意义感。按照杨元庆的思路,其实无论是模型的打造者,还是模型的使用者,都不该把AI放在人的对立面。
MIT研究团队提出递归语言模型(RLM),通过将长文本存储在外部编程环境中,让AI能够编写代码来探索和分解文本,并递归调用自身处理子任务。该方法成功处理了比传统模型大两个数量级的文本长度,在多项长文本任务上显著优于现有方法,同时保持了相当的成本效率,为AI处理超长文本提供了全新解决方案。
谷歌宣布对Gmail进行重大升级,全面集成Gemini AI功能,将其转变为"个人主动式收件箱助手"。新功能包括AI收件箱视图,可按优先级自动分组邮件;"帮我快速了解"功能提供邮件活动摘要;扩展"帮我写邮件"工具至所有用户;支持复杂问题查询如"我的航班何时降落"。部分功能免费提供,高级功能需付费订阅。谷歌强调用户数据安全,邮件内容不会用于训练公共AI模型。
华为研究团队推出SWE-Lego框架,通过混合数据集、改进监督学习和测试时扩展三大创新,让8B参数AI模型在代码自动修复任务上击败32B对手。该系统在SWE-bench Verified测试中达到42.2%成功率,加上扩展技术后提升至49.6%,证明了精巧方法设计胜过简单规模扩展的技术理念。