ZD至顶网服务器频道 08月23日 编译:ARM为推动旗下64位v8架构进军高性能计算而新开发了向量指令集。其中富士通也参与了该项开发工作,这也是继K计算机后的又一力作。K计算机是日本理研研究所基于Sparc的系统,2010年的运算速度达每秒8千万亿次,当时曾是世界上最强大的计算系统。
ARM此举标志着ARM处理器内核首次进军超级计算机领域。目前涉足该领域的产品还比较匮乏,而英特尔的x86目前占据主导地位。ARM希望成为继英特尔之后的另一家主导厂商,以逐渐取代来自IBM和Cray生产的处理器。
另外,ARM的强大之处在于其功率效率与x86相比有着更多潜力。超级计算机设计人员在打造超规模系统时往往为所需的巨大功率为难,现在ARM所提供优越的功率效率可为超级计算机设计人员提供帮助。
ARM目前支持的Neon SIMD指令仅限于128位运算,侧重于客户端系统中的图像和视频应用。该指令集合的可缩放矢量扩展 (SVE) 支持128位至2048位的运算,每级增量为128位。此外,用户所写的向量代码也可在任何大小的矢量上运行,无需重新编译,这点据称是其他任何系统都无法做到的。
SVE作为一套新的指令集,主要针对科学计算等工作负载,并非基于DSP媒体加速。富士通表示,希望能在2020年的后K(post-K)计算机里使用这些指令,令其容量和效率达到以前系统的50倍。
SVE的架构为加载/存储型,用了最多32个向量寄存器和16个断言寄存器,另附控制寄存器和First-fault寄存器。在管理各种控制回路所做决定的时候,ARM在编程空间里为SVE未来的扩展留有更多余地。
据悉,ARM现正在与一批合作伙伴合作开发SVE相关规范,规范预计明年年初就绪。ARM亦着手开源这些扩展的Linux版本。
在不同长度向量情况下,ARM的SVE展现了重大的规模性优势。图中结果是基于编译后的代码在不同长度向量下模拟得到的。
所有ARM的64位许可证购买者都可以获取SVE技术。ARM首席设计师Nigel Stephens在一次活动上表示,ARM的几个合作伙伴参与了开发SVE的工作,但ARM不想公布这些名字。
对于富士通而言,与ARM合作是为了在ARM挺进高性能系统的启始阶段与其建立起伙伴关系。
富士通后K计算机的首席设计师俊男吉田表示,“后K计算机的目标是在2020年达到Exaflop的性能级别,而Sparc仍是富士通企业服务器的首选技术,但富士通认为基于ARM芯片的新型科学技术系统的商机是存在的。”
吉田表示,富士通系统将使用512位的SIMD矢量单元,其I/O会使用到旗下的Tofu互连的一个版本和其他加速器内核。另外,他不愿评论该芯片针对的"领先优势"处理节点是什么。
富士通选择了512位的向量长度是因为它正好是以前基于Sparc系统的256位SIMD的两倍。吉田表示,"我们想慢慢进入这一领域。"另外,SVE可置于28位编码区域,只有64位ARM内核才具备该能力。
好文章,需要你的鼓励
Akamai的分布式边缘架构从设计之初就以韧性为核心,全球平台通过跨区域负载均衡和智能路由技术,确保即使某些节点出现故障,流量也能无缝切换至可用节点。
卡内基梅隆大学联合Adobe开发出革命性的NP-Edit技术,首次实现无需训练数据对的AI图像编辑。该技术通过视觉语言模型的语言反馈指导和分布匹配蒸馏的质量保障,让AI仅用4步就能完成传统50步的编辑任务,在保持高质量的同时大幅提升处理速度,为图像编辑技术的普及应用开辟了全新道路。
Turner & Townsend发布的2025年数据中心建设成本指数报告显示,AI工作负载激增正推动高密度液冷数据中心需求。四分之三的受访者已在从事AI数据中心项目,47%预计AI数据中心将在两年内占据一半以上工作负载。预计到2027年,AI优化设施可能占全球数据中心市场28%。53%受访者认为液冷技术将主导未来高密度项目。电力可用性成为开发商面临的首要约束,48%的受访者认为电网连接延迟是主要障碍。
复旦大学团队突破AI人脸生成"复制粘贴"痛点,开发WithAnyone模型解决传统AI要么完全复制参考图像、要么身份差异过大的问题。通过MultiID-2M大规模数据集和创新训练策略,实现保持身份一致性的同时允许自然变化,为AI图像生成技术树立新标杆。