ZD至顶网服务器频道 08月23日 编译:ARM为推动旗下64位v8架构进军高性能计算而新开发了向量指令集。其中富士通也参与了该项开发工作,这也是继K计算机后的又一力作。K计算机是日本理研研究所基于Sparc的系统,2010年的运算速度达每秒8千万亿次,当时曾是世界上最强大的计算系统。
ARM此举标志着ARM处理器内核首次进军超级计算机领域。目前涉足该领域的产品还比较匮乏,而英特尔的x86目前占据主导地位。ARM希望成为继英特尔之后的另一家主导厂商,以逐渐取代来自IBM和Cray生产的处理器。
另外,ARM的强大之处在于其功率效率与x86相比有着更多潜力。超级计算机设计人员在打造超规模系统时往往为所需的巨大功率为难,现在ARM所提供优越的功率效率可为超级计算机设计人员提供帮助。
ARM目前支持的Neon SIMD指令仅限于128位运算,侧重于客户端系统中的图像和视频应用。该指令集合的可缩放矢量扩展 (SVE) 支持128位至2048位的运算,每级增量为128位。此外,用户所写的向量代码也可在任何大小的矢量上运行,无需重新编译,这点据称是其他任何系统都无法做到的。
SVE作为一套新的指令集,主要针对科学计算等工作负载,并非基于DSP媒体加速。富士通表示,希望能在2020年的后K(post-K)计算机里使用这些指令,令其容量和效率达到以前系统的50倍。
SVE的架构为加载/存储型,用了最多32个向量寄存器和16个断言寄存器,另附控制寄存器和First-fault寄存器。在管理各种控制回路所做决定的时候,ARM在编程空间里为SVE未来的扩展留有更多余地。
据悉,ARM现正在与一批合作伙伴合作开发SVE相关规范,规范预计明年年初就绪。ARM亦着手开源这些扩展的Linux版本。
在不同长度向量情况下,ARM的SVE展现了重大的规模性优势。图中结果是基于编译后的代码在不同长度向量下模拟得到的。
所有ARM的64位许可证购买者都可以获取SVE技术。ARM首席设计师Nigel Stephens在一次活动上表示,ARM的几个合作伙伴参与了开发SVE的工作,但ARM不想公布这些名字。
对于富士通而言,与ARM合作是为了在ARM挺进高性能系统的启始阶段与其建立起伙伴关系。
富士通后K计算机的首席设计师俊男吉田表示,“后K计算机的目标是在2020年达到Exaflop的性能级别,而Sparc仍是富士通企业服务器的首选技术,但富士通认为基于ARM芯片的新型科学技术系统的商机是存在的。”
吉田表示,富士通系统将使用512位的SIMD矢量单元,其I/O会使用到旗下的Tofu互连的一个版本和其他加速器内核。另外,他不愿评论该芯片针对的"领先优势"处理节点是什么。
富士通选择了512位的向量长度是因为它正好是以前基于Sparc系统的256位SIMD的两倍。吉田表示,"我们想慢慢进入这一领域。"另外,SVE可置于28位编码区域,只有64位ARM内核才具备该能力。
好文章,需要你的鼓励
在上周用户对其新使用条款的反对声中,Firefox 浏览器制造商 Mozilla 重新修订了其政策,以解决之前使用的过于宽泛的语言问题。批评者表示,这些条款暗示 Mozilla 要求用户对其在浏览器中输入或上传的任何数据拥有权利,这让一些人担心这些数据可能会被出售给广告商或人工智能公司。Mozilla 表示情况并非如此,并指出新条款并未改变公司使用数据的方式。该公司还表示,最初的语言更新并非出于“出售用户数据的意图”,而且公司使用收集数据的能力仍然受到 Firefox 隐私声明中规定的权利的限制。
Google Cloud 推出两项新的 AI 功能:一是面向数据科学家的 Data Science Agent,可在 Google Colab 中快速进行数据分析;二是面向医疗专业人士的 Vertex AI Search 多模态搜索功能,可更全面地分析患者健康信息。这些 AI 创新旨在提高数据分析效率和医疗诊断准确性,推动 AI 在科技和医疗领域的应用。
领先的 AI 公司正在采用"蒸馏"技术,以创造更便宜、更易采用的 AI 模型。这种技术在 DeepSeek 成功应用后引起广泛关注,引发了硅谷 AI 领导地位的动摇。蒸馏技术通过将大型语言模型的知识转移到小型模型中,实现了高效且经济的 AI 应用。这一突破为初创公司和开发者提供了更多机会,同时也对现有 AI 公司的商业模式构成了挑战。