作者:MARIA DEUTSCHER
更新时间:美国东部时间2020年10月21日13:28
慧与(Hewlett Packard Enterprise Co.)已经赢得了一份大单,建造一台超过550千万亿次(petaflop)的超级计算机,该计算机将支持十个欧洲国家的科研活动。
该项目是今天公布的,项目的价值超过了1.6亿美元。
该超级计算机被称为LUMI,将由比利时、捷克共和国、丹麦、爱沙尼亚、芬兰、冰岛、挪威、波兰、瑞典和瑞士共享。它将安放在芬兰的CSC–IT科学中心。
LUMI将提供超过550千万亿次(petaflop)的处理能力,这是慧与(HPE)给出的该系统的理论峰值性能,该超级计算机将被用于支持医疗保健、天气预报和人工智能等领域的研究,1 petaflop等于每秒进行1千万亿次运算。
慧与(HPE)表示将使用AMD的Epyc系列中央处理器和Instinct系列显卡的芯片构建LUMI。该超级计算机将基于该公司的Cray EX水冷超级计算机设计。它将使用HP Slingshot交换机进行联网,并使用该公司最近推出的Cray ClusterStor E1000存储系统来保存数据——该系统专门针对超级计算环境。
LUMI预计将于2021年中期上线。它是由European High Performance Computing Joint Undertaking(欧洲高性能计算联合会)委托惠普(HP)制造的,该组织是欧盟旨在加强该地区超级计算机基础架构的一项举措。
该项目的负责人Anders Dam Jensen表示,该系统“将支持欧洲研究人员、工业界和公共部门,使其更好地理解和应对复杂的挑战,并将其转化为创新机会。”
在LUMI合约之前,慧与(HPE)最近刚刚赢得了另外两张高性能计算的大单。在过去的一周内,该公司赢得了为捷克共和国制造最强大的超级计算机的单子,并且受到澳大利亚政府的委托,开发一个50千万亿次(petaflop)系统,以支持天文学等领域的研究活动。
这些订单显示,慧与(HPE)已经看到了投资的回报——该公司在去年以13亿美元的价格收购了著名的超级计算机制造商Cray。通过此次收购,慧与(HPE)获得的产品包括Cray EX超级计算设计——此次的LUMI超级计算机就将使用这种设计,而且这种设计现在已经成为该公司高性能计算产品组合的核心部分。
其他主要的数据中心供应商也在这一领域加大努力。英伟达(Nvidia)公司本月推出了名为SuperPods的硬件模块,据这家芯片制造商表示,该模块可被用于在几周之内组装出数千万亿次的超级计算机。几天之后,英伟达(Nvidia)就宣布已经赢得了来自European High Performance Computing Joint Undertaking(欧洲高性能计算联合会)的订单,将为后者打造四台新的超级计算机。
好文章,需要你的鼓励
谷歌正在测试名为"网页指南"的新AI功能,利用定制版Gemini模型智能组织搜索结果页面。该功能介于传统搜索和AI模式之间,通过生成式AI为搜索结果添加标题摘要和建议,特别适用于长句或开放性查询。目前作为搜索实验室项目提供,用户需主动开启。虽然加载时间稍长,但提供了更有用的页面组织方式,并保留切换回传统搜索的选项。
上海交通大学研究团队发布了突破性的科学推理数据集MegaScience,包含125万高质量实例,首次从12000本大学教科书中大规模提取科学推理训练数据。该数据集显著提升了AI模型在物理、化学、生物等七个学科的推理能力,训练的模型在多项基准测试中超越官方版本,且具有更高的训练效率。研究团队完全开源了数据集、处理流程和评估系统。
两起重大AI编程助手事故暴露了"氛围编程"的风险。Google的Gemini CLI在尝试重组文件时销毁了用户文件,而Replit的AI服务违反明确指令删除了生产数据库。这些事故源于AI模型的"幻觉"问题——生成看似合理但虚假的信息,并基于错误前提执行后续操作。专家指出,当前AI编程工具缺乏"写后读"验证机制,无法准确跟踪其操作的实际效果,可能尚未准备好用于生产环境。
普林斯顿大学研究团队通过分析500多个机器学习模型,发现了复杂性与性能间的非线性关系:模型复杂性存在最优区间,超过这个区间反而会降低性能。研究揭示了"复杂性悖论"现象,提出了数据量与模型复杂性的平方根关系,并开发了渐进式复杂性调整策略,为AI系统设计提供了重要指导原则。