至顶网服务器频道 05月15日 新闻消息: 近日,第18届国际超算高峰论坛(HPC Connection Workshop)于ASC18世界大学生超级计算机竞赛期间在南昌大学举行。本届高峰论坛以"下一个尖端:人工智能, 计算与科学"为主题,来自美国橡树岭国家实验室、国家超级计算无锡中心、华沙大学、挪威科技大学、中山大学等中美欧著名专家分享并探讨了百亿亿次超级计算机、人工智能等与超算发展密切相关的重要议题。

第18届国际超算高峰论坛(HPC Connection Workshop)现场
美国6月将重归全球最快超算榜首
全球超级计算机排行榜TOP500发起人,美国工程院院士,橡树岭国家实验室及田纳西大学Jack Dongarra教授在《高性能计算与大数据:未来的挑战》主题报告中指出,目前全球TOP500超级计算机中,已经有181套系统的运算能力突破千万亿次。而广受关注的美国Summit超级计算机已基本完成建造,预计于今年6月在橡树岭国家实验室正式投入使用。这套最新的超算系统将拥有4,600个节点,峰值运算能力突破每秒20亿亿次,比当前最快的超级计算机"神威·太湖之光"性能提升60%。
同时,美国也正在推动下一代百亿亿次超级计算机的建造,预计在2021年左右交付至阿贡实验室,初步规划峰值运算能力超过每秒130亿亿次,内存超过8PB,系统功耗约为40MW。
Jack Dongarra认为,超级计算持续发展的动力,很大程度上是为了更好的应对越来越庞大的数据处理挑战。以平方公里阵列望远镜(SKA)为例,这一全球最大天文学国际合作项目的一期工程将在2020开始运行,每天新产生的图片数据高达100PB,比滴滴出行每日新增轨迹数据高出约1000倍,这些数据需要每秒30亿亿次的运算能力才能完成处理。而到2028年,每天的图片数据量将增加100倍,达到10000PB,需要每秒完成3000亿亿次运算,相当于240台"神威·太湖之光"同时运算。
欧洲投10亿欧元建百亿亿次超算
华沙大学数学建模和计算机交叉科学中心副主任Marek Michalewicz博士介绍了欧洲的百亿亿次超级计算机项目--欧洲先进计算合作项目(Partnership for Advanced Computing in Europe,简称PRACE),这一项目的使命是实现高影响力的科学发现和跨学科研究和开发,并寻求通过各种措施加强欧洲工业用户的HPC能力,以增强欧洲的竞争力,为社会造福。PRACE通过同行评审过程提供世界级的计算和数据管理资源和服务来实现这一使命,并致力于提高计算系统的能效和减少其环境影响。欧盟委员会计划为PRACE投资10亿欧元。
国家重点研发计划"高性能计算"重点专项总体专家组组长钱德沛教授也在现场分享了中国百亿亿次超级计算机的进展与挑战,首套百亿亿次超级计算机预计将在2020年交付。
神威·太湖之光帮助地震模拟
国家超级计算无锡中心副主任、清华大学付昊桓副教授分享了荣获2017年"戈登·贝尔奖"的"基于太湖之光超级计算机的非线性地震模拟"的科研成果。该报告指出,中国拥有23个地震带,高烈度地震区(M7以上)覆盖陆地面积的50%以上,地震预测对于降低危害和风险,保障人民生命安全具有重大意义。预测地震的主要困难在于要同时对时间、空间和地震强度三大要素进行预测,因此将地震预测问题转化为地震模拟"亚"问题更为可行并具有现实意义。付昊桓现场分享了如何利用"神威·太湖之光",开展对已知地点发生的地震进行时间、地震强度的模拟,以及针对余震预测、震级-频度关系、基于地震过程情景模拟的震害预测等问题的研究。
好文章,需要你的鼓励
国际能源署发布的2025年世界能源展望报告显示,全球AI竞赛推动创纪录的石油、天然气、煤炭和核能消耗,加剧地缘政治紧张局势和气候危机。数据中心用电量预计到2035年将增长三倍,全球数据中心投资预计2025年达5800亿美元,超过全球石油供应投资的5400亿美元。报告呼吁采取新方法实现2050年净零排放目标。
维吉尼亚理工学院研究团队对58个大语言模型在单细胞生物学领域的应用进行了全面调查,将模型分为基础、文本桥接、空间多模态、表观遗传和智能代理五大类,涵盖细胞注释、轨迹预测、药物反应等八项核心任务。研究基于40多个公开数据集,建立了包含生物学理解、可解释性等十个维度的评估体系,为这个快速发展的交叉领域提供了首个系统性分析框架。
AMD首席执行官苏姿丰在纽约金融分析师日活动中表示,公司已准备好迎接AI浪潮并获得传统企业计算市场更多份额。AMD预计未来3-5年数据中心AI收入复合年增长率将超过80%,服务器CPU收入份额超过50%。公司2025年预期收入约340亿美元,其中数据中心业务160亿美元。MI400系列GPU采用2纳米工艺,Helios机架系统将提供强劲算力支持。
西湖大学王欢教授团队联合国际研究机构,针对AI推理模型内存消耗过大的问题,开发了RLKV技术框架。该技术通过强化学习识别推理模型中的关键"推理头",实现20-50%的内存缩减同时保持推理性能。研究发现推理头与检索头功能不同,前者负责维持逻辑连贯性。实验验证了技术在多个数学推理和编程任务中的有效性,为推理模型的大规模应用提供了现实可行的解决方案。