顶尖超算“富岳”同样采用这一架构及捆绑服务
富士通公司已经确认将通过其全新云服务,向全球客户开放与顶尖超级计算机“富岳”相同的系统架构访问通道。

新的富士通计算即服务(CaaS)方案主要面向需要量子模拟资源及服务的用户群体,这些技术目前已经成为探索人工智能与机器学习的必要前提。
首先公开的是富士通云服务HPC,目前已经开始接受预订,预计将在今年10月正式上线。
富士通还提到,他们将首先服务于日本本土市场,随后将业务推广至欧洲、亚太地区及美洲等全球其他市场。
后续,富士通还将推出Digital Annealer技术服务。这项技术使用量子退火为复杂问题寻找最佳解决方案,有望在AI与机器学习服务领域发挥作用。
富士通云服务HPC将借助富士通PRIMEHPC FX1000开放算力资源,而这部分算力来自与“富岳”超级计算机相同的A64FX 64位ARM芯片。根据最新全球超算五百强榜单,“富岳”目前仍保有全球最快计算机的桂冠。
PRIMEHPC FX1000中的每个节点都包含一块48核心A64FX芯片,芯片顶部直接堆叠有32 GB HBM2内存,据称内存带宽为1024 GB/s。PRIMEHPC FX1000的每个机架最多可支持384个节点,各节点由富士通原研的Tofu D高速架构实现互连。
根据富士通的介绍,这项HPC服务还将包含一套软件、工具库及支持资源,帮助客户轻松部署高性能计算程序。服务还提供性能调优与应用程序分析服务,旨在帮助那些关注研究和分析类负载的客户。
富士通提到,各计算节点、登录节点、作业调度器、存储及HPC应用软件都将提前配置完成,因此用户无需自行构建高性能计算环境,只需要准备有待分析的数据即可。另外,与其他公有云产品一样,用户仅按所需资源付费。
订阅用户按月申报“HPC预算”后,即可使用富士通云HPC服务。计算资源将按现收现付的方式供应和使用。
富士通告诉我们,其HPC节点中的HPC预算将初步提供三种计费选项,具体取决于存储容量等配置条件,价格分别为每月5万日元(约400美元)、每月50万日元(约4000美元)以及每月100万日元(约8000美元)。这些价格仅对应日本国内上线的首批服务。
富士通似乎特别关注那些之前没接触过高性能计算、或者缺乏相关专业知识的客户,打算通过专业的运营和技术支持帮助他们快速上手云服务,并根据具体业务需求制定使用计划。
富士通还提到,他们希望在富士通云服务HPC与“富岳”超级计算机之间实现高度兼容,确保将富岳上的研究成果轻松迁移到CaaS服务中以加速实际应用。此外,富士通还在想办法帮助客户设计大规模分析与研究项目,确保在必要时能把应用程序迁移至富岳超算。
根据计算科学中心主任Satoshi Matsuoka的介绍,此项目由日本RIKEN研究所的科学家与富士通合作推动。
他在声明中解释道,“我们正在与富士通开展合作,希望让CaaS与富岳超算高度兼容,充分支持客户需求。未来,我们希望CaaS能够将富岳超级计算机的研发经验与产业及社会实践联系起来。”
“展望未来,我们还将与富士通继续合作,通过二者的进一步协同在云端无缝提供更多源自富岳的前沿功能。”
在这方面,富士通云服务HPC跟其他常见的HPC即服务产品——例如联想的TruScale以及HPE的GreenLake for High Performance Computing——确实有所区别。后两者都是在客户自己的数据中心或托管站点中以托管服务的形式提供物理基础设施。
对企业来说,实现HPC还有另外一条道路,就是直接与云服务商合作。目前,AWS、Azure以及Google Cloud都提供HPC功能。然而,这往往要求客户从种种单独的服务中自行组合出一套要求自主管理的解决方案。相反,富士通则把这些需求全部揽在自己手中,客户直接使用功能即可。
Hyperion Research公司HPC市场动态高级顾问Steve Conway表示,富士通的思路倒也不是前无古人,毕竟各种各样的HPC服务早已经被厂商们试了个遍。
在他看来,“富士通只是正式加入了战团。”
但富士通也确实拥有宏大的野心,也是在顺应日本政府将超算资源推向海外市场的预期。Conway表示,“日本打算跟上超级计算领导者们的步伐。虽然日本的服务也不差,但主要面向的仍然是国内市场。现在,政府已经明确要求向海外研究人员开放这部分服务。”
富士通的K5混合云服务曾经分别提供公有、私有虚拟或私有托管等多种服务销售及部署形式,但从2018年起被迫收缩回只面向国内市场。总结经验,富士通决定对员工进行培训,引导他们充分了解AWS、Azure等实力强劲的公有云竞争对手。
好文章,需要你的鼓励
CPU架构讨论常聚焦于不同指令集的竞争,但实际上在单一系统中使用多种CPU架构已成常态。x86、Arm和RISC-V各有优劣,AI技术的兴起更推动了对性能功耗比的极致需求。当前x86仍主导PC和服务器市场,Arm凭借庞大生态系统在移动和嵌入式领域领先,RISC-V作为开源架构展现巨大潜力。未来芯片设计将更多采用异构计算,多种架构协同工作成为趋势。
KAIST AI团队通过深入分析视频生成AI的内部机制,发现了负责交互理解的关键层,并开发出MATRIX框架来专门优化这些层。该技术通过语义定位对齐和语义传播对齐两个组件,显著提升了AI对"谁对谁做了什么"的理解能力,在交互准确性上提升约30%,为AI视频生成的实用化应用奠定了重要基础。
Vast Data与云计算公司CoreWeave签署了价值11.7亿美元的多年期软件许可协议,这标志着AI基础设施存储市场的重要转折点。该协议涵盖Vast Data的通用存储层及高级数据平台服务,将帮助CoreWeave提供更全面的AI服务。业内专家认为,随着AI集群规模不断扩大,存储系统在AI基础设施中的占比可能从目前的1.9%提升至3-5%,未来五年全球AI存储市场规模将达到900亿至2000亿美元。
乔治亚理工学院和微软研究团队提出了NorMuon优化器,通过结合Muon的正交化技术与神经元级自适应学习率,在1.1B参数模型上实现了21.74%的训练效率提升。该方法同时保持了Muon的内存优势,相比Adam节省约50%内存使用量,并开发了高效的FSDP2分布式实现,为大规模AI模型训练提供了实用的优化方案。