ZDNet至顶网服务器频道 08月09日 编译:Hot Chips大会将于8月10日(星期天)揭开序幕,富士通将在Hot Chips大会上大力宣传旗下的超级计算机芯片,富士通曾在6月宣传过同一款芯片的预览产品。
此款新一代超级芯片名为SPARC64 Xlfx,富士通推出此款芯片希望能推动超大规模(Exascale,Exa意为百亿亿次,Scale意为规模)计算,此款庞然大物芯片内有32个内核,双精度计算速度达1 Tflop,单精度计算速度达 2 Tflop(1 Tflop=每秒1万亿次浮点运算),可与Tofu2光互连接口。
供应商富士通在6月底的一次演示中表示,Xlfx为新款3-CPU内存主板的主打,每2个水冷机架含12 CPU节点,每机柜含200个节点。机架间的连接由Finisar光模块提供,每个机架含多个微米混合存储立方体(Hybrid memory cubes,缩写为HMC)。
富士通在另一个演示中称,基于Xlfx系统的每个机柜可达100 Petaflop(1 Petaflop=每秒1千万亿次运算),双向通信链路的速度达每秒12.5千兆字节(是用在富士通K超算机里的Tofu1互连速度每秒5千兆字节的2倍多)。
富士通表示,综合各方面来看,Xlfx系统内一个机架上的零零种种等同于一个K超算机柜,Xlfx与K超算机、上一代PRIMEHPC FX10系统是二进制兼容的。
软件堆栈拥有Fortran、C和C++程序语言的自动并行化编译器,支持OpenMP、MPI和XPFortran。
好文章,需要你的鼓励
很多人担心被AI取代,陷入无意义感。按照杨元庆的思路,其实无论是模型的打造者,还是模型的使用者,都不该把AI放在人的对立面。
MIT研究团队提出递归语言模型(RLM),通过将长文本存储在外部编程环境中,让AI能够编写代码来探索和分解文本,并递归调用自身处理子任务。该方法成功处理了比传统模型大两个数量级的文本长度,在多项长文本任务上显著优于现有方法,同时保持了相当的成本效率,为AI处理超长文本提供了全新解决方案。
谷歌宣布对Gmail进行重大升级,全面集成Gemini AI功能,将其转变为"个人主动式收件箱助手"。新功能包括AI收件箱视图,可按优先级自动分组邮件;"帮我快速了解"功能提供邮件活动摘要;扩展"帮我写邮件"工具至所有用户;支持复杂问题查询如"我的航班何时降落"。部分功能免费提供,高级功能需付费订阅。谷歌强调用户数据安全,邮件内容不会用于训练公共AI模型。
华为研究团队推出SWE-Lego框架,通过混合数据集、改进监督学习和测试时扩展三大创新,让8B参数AI模型在代码自动修复任务上击败32B对手。该系统在SWE-bench Verified测试中达到42.2%成功率,加上扩展技术后提升至49.6%,证明了精巧方法设计胜过简单规模扩展的技术理念。