9月23日,ARM宣布推出两款全新的CPU IP: Arm Neoverse V1平台以及第二代的N系列平台Neoverse N2,两个新平台的推出丰富了Neoverse产品家族,也大大增强ARM进军基础设施市场的竞争实力。此举表明了ARM正持续兑现对Neoverse的承诺。
Neoverse是ARM 2018年首次对外宣布的一个全新产品系列,主要面向5G网络和下一代云端到边缘基础设施,Neoverse架构会有更高级别的性能、安全性和可扩展性,其从微架构设计到芯片、软件和系统进行的全面创新以满足整个计算领域多样化且不断变化的需求。
目前,基础设施市场的主流架构是x86,这个市场主要有英特尔、AMD占领。近年来,随着云计算、AI应用的持续爆发,异构计算开始普及,GPU、FPGA等新型计算架构得到广泛部署。ARM 架构因其低功耗在物理网、移动市场广泛应用,ARM希望将其低功耗、高能效的优势带到服务器、网络、存储等市场,Neoverse就是在这个背景下推出的。2019年上半年,Arm推出了Arm Neoverse平台的两款产品,即Neoverse N1平台和E1平台。
据Arm基础设施事业部高级副总裁兼总经理Chris Bergey介绍,Neoverse包括三个系列,分别是V系列、N系列、E系列,其中V系列主要面向对计算性能要求比较高的场景,E系列主要面向对能耗要求比较高的场景,N系列主要面向对可扩展性要求比较高的场景。
本次新推出的Neoverse V1是V系列的第一个平台,与N1相比,其单线程性能可提升超过50%,对于CPU性能与带宽更高要求的应用来说,是性能表现最佳的平台。重要的是,Neoverse V1支持可伸缩矢量扩展(Scalable Vector Extensions, SVE),为高性能云、高性能计算与机器学习等市场带来庞大的应用潜力。 SVE可基于未知宽度向量单元的软件编程模型,执行单指令流多数据流(SIMD)整数、bfloat16、浮点指令。SVE可确保软件编码的可移植性与使用寿命,同时兼顾高效的执行。
同为N系列的N2 与 N1相比,性能翻倍,同时可提供更高可扩展性。Neoverse N2被定位为可提供更高性能计算的解决方案,用来满足横向扩展的性能需求,其用例可横跨云、智能网卡(SmartNICs)、企业网络到功耗受限的边缘设备。 此外,相比于Neoverse N1,Neoverse N2在保持相同水平的功率和面积效率之余,单线程性能提升了40%。
处理器架构的落地离不开软件的支持,特别是对于一个有别于X86的全新架构。Chris Bergey在接受采访时就表示,Neoverse落地的一大挑战是如何与其他软硬件协作以充分发挥其价值。这需要整个生态系统的共同努力。
为此,Arm致力于为合作伙伴的持续创新与设计灵活性提供必要的组件。其中的关键任务在于Arm的芯片级接口,Arm在CCIX与CXL的投资就是为了确保其生态系统得以快速且高效地推出相关的技术。Arm现在不但提供领先的处理器核,还为合作伙伴提供可扩展性的交换网,用以支持大量的处理器核。
除了Arm的互连技术,Project Cassini的推出也将有合作伙伴的合作。通过标准、平台安全性与参考实施,Project Cassini让行业伙伴在基于Arm平台上部署“装机即用“的软件充满信心。同时,Arm也持续推动基础设施的基础软件支持。操作系统 、虚拟机管理程序,例如 Xen、KVM、Docker容器以及越来越多的Kubernetes,都已经陆续宣布支持Arm架构。许多初期由Arm推动的开源项目正在变得自主运转,同时,商用ISV应用程序也齐步演进。
Chris Bergey表示,Arm 将持续优化Neoverse,这一全新计算平台预计以每年增长30%的平台性能为指标,持续优化到2021年。
看得出,Arm对Neoverse抱有很强烈的期许,投入也很大。
好文章,需要你的鼓励
从浙江安吉的桌椅,到广东佛山的沙发床垫、河南洛阳的钢制家具,再到福建福州的竹藤制品,中国各大高度专业化的家具产业带,都在不约而同地探索各自的数字化出海路径。
哥伦比亚大学研究团队开发了MathBode动态诊断工具,通过让数学题参数按正弦波变化来测试AI的动态推理能力。研究发现传统静态测试掩盖了AI的重要缺陷:几乎所有模型都表现出低通滤波特征和相位滞后现象,即在处理快速变化时会出现失真和延迟。该方法覆盖五个数学家族的测试,为AI模型选择和部署提供了新的评估维度。
研究人员正探索AI能否预测昏迷患者的医疗意愿,帮助医生做出生死决策。华盛顿大学研究员Ahmad正推进首个AI代理人试点项目,通过分析患者医疗数据预测其偏好。虽然准确率可达三分之二,但专家担心AI无法捕捉患者价值观的复杂性和动态变化。医生强调AI只能作为辅助工具,不应替代人类代理人,因为生死决策依赖具体情境且充满伦理挑战。
这项研究首次发现AI推理模型存在"雪球效应"问题——推理过程中的小错误会逐步放大,导致AI要么给出危险回答,要么过度拒绝正常请求。研究团队提出AdvChain方法,通过训练AI学习"错误-纠正"过程来获得自我纠错能力。实验显示该方法显著提升了AI的安全性和实用性,用1000个样本达到了传统方法15000个样本的效果,为AI安全训练开辟了新方向。