至顶网服务器频道 05月15日 新闻消息: 近日,第18届国际超算高峰论坛(HPC Connection Workshop)于ASC18世界大学生超级计算机竞赛期间在南昌大学举行。本届高峰论坛以"下一个尖端:人工智能, 计算与科学"为主题,来自美国橡树岭国家实验室、国家超级计算无锡中心、华沙大学、挪威科技大学、中山大学等中美欧著名专家分享并探讨了百亿亿次超级计算机、人工智能等与超算发展密切相关的重要议题。

第18届国际超算高峰论坛(HPC Connection Workshop)现场
美国6月将重归全球最快超算榜首
全球超级计算机排行榜TOP500发起人,美国工程院院士,橡树岭国家实验室及田纳西大学Jack Dongarra教授在《高性能计算与大数据:未来的挑战》主题报告中指出,目前全球TOP500超级计算机中,已经有181套系统的运算能力突破千万亿次。而广受关注的美国Summit超级计算机已基本完成建造,预计于今年6月在橡树岭国家实验室正式投入使用。这套最新的超算系统将拥有4,600个节点,峰值运算能力突破每秒20亿亿次,比当前最快的超级计算机"神威·太湖之光"性能提升60%。
同时,美国也正在推动下一代百亿亿次超级计算机的建造,预计在2021年左右交付至阿贡实验室,初步规划峰值运算能力超过每秒130亿亿次,内存超过8PB,系统功耗约为40MW。
Jack Dongarra认为,超级计算持续发展的动力,很大程度上是为了更好的应对越来越庞大的数据处理挑战。以平方公里阵列望远镜(SKA)为例,这一全球最大天文学国际合作项目的一期工程将在2020开始运行,每天新产生的图片数据高达100PB,比滴滴出行每日新增轨迹数据高出约1000倍,这些数据需要每秒30亿亿次的运算能力才能完成处理。而到2028年,每天的图片数据量将增加100倍,达到10000PB,需要每秒完成3000亿亿次运算,相当于240台"神威·太湖之光"同时运算。
欧洲投10亿欧元建百亿亿次超算
华沙大学数学建模和计算机交叉科学中心副主任Marek Michalewicz博士介绍了欧洲的百亿亿次超级计算机项目--欧洲先进计算合作项目(Partnership for Advanced Computing in Europe,简称PRACE),这一项目的使命是实现高影响力的科学发现和跨学科研究和开发,并寻求通过各种措施加强欧洲工业用户的HPC能力,以增强欧洲的竞争力,为社会造福。PRACE通过同行评审过程提供世界级的计算和数据管理资源和服务来实现这一使命,并致力于提高计算系统的能效和减少其环境影响。欧盟委员会计划为PRACE投资10亿欧元。
国家重点研发计划"高性能计算"重点专项总体专家组组长钱德沛教授也在现场分享了中国百亿亿次超级计算机的进展与挑战,首套百亿亿次超级计算机预计将在2020年交付。
神威·太湖之光帮助地震模拟
国家超级计算无锡中心副主任、清华大学付昊桓副教授分享了荣获2017年"戈登·贝尔奖"的"基于太湖之光超级计算机的非线性地震模拟"的科研成果。该报告指出,中国拥有23个地震带,高烈度地震区(M7以上)覆盖陆地面积的50%以上,地震预测对于降低危害和风险,保障人民生命安全具有重大意义。预测地震的主要困难在于要同时对时间、空间和地震强度三大要素进行预测,因此将地震预测问题转化为地震模拟"亚"问题更为可行并具有现实意义。付昊桓现场分享了如何利用"神威·太湖之光",开展对已知地点发生的地震进行时间、地震强度的模拟,以及针对余震预测、震级-频度关系、基于地震过程情景模拟的震害预测等问题的研究。
好文章,需要你的鼓励
OpenAI首席执行官Sam Altman表示,鉴于投资者的AI炒作和大量资本支出,我们目前正处于AI泡沫中。他承认投资者对AI过度兴奋,但仍认为AI是长期以来最重要的技术。ChatGPT目前拥有7亿周活跃用户,是全球第五大网站。由于服务器容量不足,OpenAI无法发布已开发的更好模型,计划在不久的将来投资万亿美元建设数据中心。
阿里巴巴团队提出FantasyTalking2,通过创新的多专家协作框架TLPO解决音频驱动人像动画中动作自然度、唇同步和视觉质量的优化冲突问题。该方法构建智能评委Talking-Critic和41万样本数据集,训练三个专业模块分别优化不同维度,再通过时间步-层级自适应融合实现协调。实验显示全面超越现有技术,用户评价提升超12%。
英伟达推出新的小型语言模型Nemotron-Nano-9B-v2,拥有90亿参数,在同类基准测试中表现最佳。该模型采用Mamba-Transformer混合架构,支持多语言处理和代码生成,可在单个A10 GPU上运行。独特的可切换推理功能允许用户通过控制令牌开启或关闭AI推理过程,并可管理推理预算以平衡准确性和延迟。模型基于合成数据集训练,采用企业友好的开源许可协议,支持商业化使用。
UC Berkeley团队提出XQUANT技术,通过存储输入激活X而非传统KV缓存来突破AI推理的内存瓶颈。该方法能将内存使用量减少至1/7.7,升级版XQUANT-CL更可实现12.5倍节省,同时几乎不影响模型性能。研究针对现代AI模型特点进行优化,为在有限硬件资源下运行更强大AI模型提供了新思路。