ZDNet至顶网服务器频道 08月09日 编译:Hot Chips大会将于8月10日(星期天)揭开序幕,富士通将在Hot Chips大会上大力宣传旗下的超级计算机芯片,富士通曾在6月宣传过同一款芯片的预览产品。
此款新一代超级芯片名为SPARC64 Xlfx,富士通推出此款芯片希望能推动超大规模(Exascale,Exa意为百亿亿次,Scale意为规模)计算,此款庞然大物芯片内有32个内核,双精度计算速度达1 Tflop,单精度计算速度达 2 Tflop(1 Tflop=每秒1万亿次浮点运算),可与Tofu2光互连接口。
供应商富士通在6月底的一次演示中表示,Xlfx为新款3-CPU内存主板的主打,每2个水冷机架含12 CPU节点,每机柜含200个节点。机架间的连接由Finisar光模块提供,每个机架含多个微米混合存储立方体(Hybrid memory cubes,缩写为HMC)。
富士通在另一个演示中称,基于Xlfx系统的每个机柜可达100 Petaflop(1 Petaflop=每秒1千万亿次运算),双向通信链路的速度达每秒12.5千兆字节(是用在富士通K超算机里的Tofu1互连速度每秒5千兆字节的2倍多)。
富士通表示,综合各方面来看,Xlfx系统内一个机架上的零零种种等同于一个K超算机柜,Xlfx与K超算机、上一代PRIMEHPC FX10系统是二进制兼容的。
软件堆栈拥有Fortran、C和C++程序语言的自动并行化编译器,支持OpenMP、MPI和XPFortran。
好文章,需要你的鼓励
CPU架构讨论常聚焦于不同指令集的竞争,但实际上在单一系统中使用多种CPU架构已成常态。x86、Arm和RISC-V各有优劣,AI技术的兴起更推动了对性能功耗比的极致需求。当前x86仍主导PC和服务器市场,Arm凭借庞大生态系统在移动和嵌入式领域领先,RISC-V作为开源架构展现巨大潜力。未来芯片设计将更多采用异构计算,多种架构协同工作成为趋势。
延世大学研究团队通过分析AI推理过程中的信息密度模式,发现成功的AI推理遵循特定规律:局部信息分布平稳但全局可以不均匀。这一发现颠覆了传统的均匀信息密度假说在AI领域的应用,为构建更可靠的AI推理系统提供了新思路,在数学竞赛等高难度任务中显著提升了AI的推理准确率。
Vast Data与云计算公司CoreWeave签署了价值11.7亿美元的多年期软件许可协议,这标志着AI基础设施存储市场的重要转折点。该协议涵盖Vast Data的通用存储层及高级数据平台服务,将帮助CoreWeave提供更全面的AI服务。业内专家认为,随着AI集群规模不断扩大,存储系统在AI基础设施中的占比可能从目前的1.9%提升至3-5%,未来五年全球AI存储市场规模将达到900亿至2000亿美元。
蒙特利尔大学团队发现让AI"分段思考"的革命性方法Delethink,通过模仿人类推理模式将长篇思考分解为固定长度块,仅保留关键信息摘要。1.5B小模型击败传统大模型,训练成本降至四分之一,计算复杂度从平方级降为线性级,能处理十万词汇超长推理,为高效AI推理开辟新道路。