ZD至顶网服务器频道 08月23日 编译:ARM为推动旗下64位v8架构进军高性能计算而新开发了向量指令集。其中富士通也参与了该项开发工作,这也是继K计算机后的又一力作。K计算机是日本理研研究所基于Sparc的系统,2010年的运算速度达每秒8千万亿次,当时曾是世界上最强大的计算系统。
ARM此举标志着ARM处理器内核首次进军超级计算机领域。目前涉足该领域的产品还比较匮乏,而英特尔的x86目前占据主导地位。ARM希望成为继英特尔之后的另一家主导厂商,以逐渐取代来自IBM和Cray生产的处理器。
另外,ARM的强大之处在于其功率效率与x86相比有着更多潜力。超级计算机设计人员在打造超规模系统时往往为所需的巨大功率为难,现在ARM所提供优越的功率效率可为超级计算机设计人员提供帮助。
ARM目前支持的Neon SIMD指令仅限于128位运算,侧重于客户端系统中的图像和视频应用。该指令集合的可缩放矢量扩展 (SVE) 支持128位至2048位的运算,每级增量为128位。此外,用户所写的向量代码也可在任何大小的矢量上运行,无需重新编译,这点据称是其他任何系统都无法做到的。
SVE作为一套新的指令集,主要针对科学计算等工作负载,并非基于DSP媒体加速。富士通表示,希望能在2020年的后K(post-K)计算机里使用这些指令,令其容量和效率达到以前系统的50倍。
SVE的架构为加载/存储型,用了最多32个向量寄存器和16个断言寄存器,另附控制寄存器和First-fault寄存器。在管理各种控制回路所做决定的时候,ARM在编程空间里为SVE未来的扩展留有更多余地。
据悉,ARM现正在与一批合作伙伴合作开发SVE相关规范,规范预计明年年初就绪。ARM亦着手开源这些扩展的Linux版本。
在不同长度向量情况下,ARM的SVE展现了重大的规模性优势。图中结果是基于编译后的代码在不同长度向量下模拟得到的。
所有ARM的64位许可证购买者都可以获取SVE技术。ARM首席设计师Nigel Stephens在一次活动上表示,ARM的几个合作伙伴参与了开发SVE的工作,但ARM不想公布这些名字。
对于富士通而言,与ARM合作是为了在ARM挺进高性能系统的启始阶段与其建立起伙伴关系。
富士通后K计算机的首席设计师俊男吉田表示,“后K计算机的目标是在2020年达到Exaflop的性能级别,而Sparc仍是富士通企业服务器的首选技术,但富士通认为基于ARM芯片的新型科学技术系统的商机是存在的。”
吉田表示,富士通系统将使用512位的SIMD矢量单元,其I/O会使用到旗下的Tofu互连的一个版本和其他加速器内核。另外,他不愿评论该芯片针对的"领先优势"处理节点是什么。
富士通选择了512位的向量长度是因为它正好是以前基于Sparc系统的256位SIMD的两倍。吉田表示,"我们想慢慢进入这一领域。"另外,SVE可置于28位编码区域,只有64位ARM内核才具备该能力。
好文章,需要你的鼓励
新加坡人工智能机构与阿里云发布全新大语言模型Qwen-Sea-Lion-v4,专门针对东南亚语言和文化特色进行优化。该模型结合阿里云Qwen3-32B基础模型和大量东南亚地区数据集,在东南亚语言模型评估榜单中位居开源模型首位。模型支持119种语言,能在32GB内存的消费级笔记本上运行,采用字节对编码技术更好处理非拉丁文字,并具备3.2万词元上下文长度,可执行文档级推理和摘要任务。
中科大联合快手等机构推出VR-Thinker技术,首次实现AI视频评判员的"边看边想"能力。该系统通过主动选择关键画面、智能记忆管理和三阶段训练,在视频质量评估准确率上达到75%-82%,特别擅长处理长视频场景,为AI视频生成的质量控制提供了突破性解决方案。
AI智能体是下一代业务自动化工具,不仅能对话交流,还能执行复杂任务。与ChatGPT聊天机器人不同,它们可在最少人工干预下规划并完成工作。文章介绍了五个高影响力应用:自动化客户服务解决方案、销售CRM管理、合规自动化、招聘筛选与排程、市场情报报告。这些应用都具有重复性工作流程、依赖结构化数据、遵循可预测规则等特点,能够释放员工宝贵时间用于更有价值的工作。
微软研究院发布BitDistill技术,通过三阶段优化将大型语言模型压缩至1.58位精度,在保持性能的同时实现10倍内存节省和2.65倍速度提升。该技术包括模型结构稳定化、持续预训练适应和知识蒸馏传承三个关键步骤,解决了模型量化中的性能衰减和规模化问题,为AI模型在资源受限设备上的高效部署提供了新方案。