至顶网服务器频道 05月15日 新闻消息: 近日,第18届国际超算高峰论坛(HPC Connection Workshop)于ASC18世界大学生超级计算机竞赛期间在南昌大学举行。本届高峰论坛以"下一个尖端:人工智能, 计算与科学"为主题,来自美国橡树岭国家实验室、国家超级计算无锡中心、华沙大学、挪威科技大学、中山大学等中美欧著名专家分享并探讨了百亿亿次超级计算机、人工智能等与超算发展密切相关的重要议题。
第18届国际超算高峰论坛(HPC Connection Workshop)现场
美国6月将重归全球最快超算榜首
全球超级计算机排行榜TOP500发起人,美国工程院院士,橡树岭国家实验室及田纳西大学Jack Dongarra教授在《高性能计算与大数据:未来的挑战》主题报告中指出,目前全球TOP500超级计算机中,已经有181套系统的运算能力突破千万亿次。而广受关注的美国Summit超级计算机已基本完成建造,预计于今年6月在橡树岭国家实验室正式投入使用。这套最新的超算系统将拥有4,600个节点,峰值运算能力突破每秒20亿亿次,比当前最快的超级计算机"神威·太湖之光"性能提升60%。
同时,美国也正在推动下一代百亿亿次超级计算机的建造,预计在2021年左右交付至阿贡实验室,初步规划峰值运算能力超过每秒130亿亿次,内存超过8PB,系统功耗约为40MW。
Jack Dongarra认为,超级计算持续发展的动力,很大程度上是为了更好的应对越来越庞大的数据处理挑战。以平方公里阵列望远镜(SKA)为例,这一全球最大天文学国际合作项目的一期工程将在2020开始运行,每天新产生的图片数据高达100PB,比滴滴出行每日新增轨迹数据高出约1000倍,这些数据需要每秒30亿亿次的运算能力才能完成处理。而到2028年,每天的图片数据量将增加100倍,达到10000PB,需要每秒完成3000亿亿次运算,相当于240台"神威·太湖之光"同时运算。
欧洲投10亿欧元建百亿亿次超算
华沙大学数学建模和计算机交叉科学中心副主任Marek Michalewicz博士介绍了欧洲的百亿亿次超级计算机项目--欧洲先进计算合作项目(Partnership for Advanced Computing in Europe,简称PRACE),这一项目的使命是实现高影响力的科学发现和跨学科研究和开发,并寻求通过各种措施加强欧洲工业用户的HPC能力,以增强欧洲的竞争力,为社会造福。PRACE通过同行评审过程提供世界级的计算和数据管理资源和服务来实现这一使命,并致力于提高计算系统的能效和减少其环境影响。欧盟委员会计划为PRACE投资10亿欧元。
国家重点研发计划"高性能计算"重点专项总体专家组组长钱德沛教授也在现场分享了中国百亿亿次超级计算机的进展与挑战,首套百亿亿次超级计算机预计将在2020年交付。
神威·太湖之光帮助地震模拟
国家超级计算无锡中心副主任、清华大学付昊桓副教授分享了荣获2017年"戈登·贝尔奖"的"基于太湖之光超级计算机的非线性地震模拟"的科研成果。该报告指出,中国拥有23个地震带,高烈度地震区(M7以上)覆盖陆地面积的50%以上,地震预测对于降低危害和风险,保障人民生命安全具有重大意义。预测地震的主要困难在于要同时对时间、空间和地震强度三大要素进行预测,因此将地震预测问题转化为地震模拟"亚"问题更为可行并具有现实意义。付昊桓现场分享了如何利用"神威·太湖之光",开展对已知地点发生的地震进行时间、地震强度的模拟,以及针对余震预测、震级-频度关系、基于地震过程情景模拟的震害预测等问题的研究。
好文章,需要你的鼓励
OpenAI CEO描绘了AI温和变革人类生活的愿景,但现实可能更复杂。AI发展将带来真正收益,但也会造成社会错位。随着AI系统日益影响知识获取和信念形成,共同认知基础面临分裂风险。个性化算法加剧信息茧房,民主对话变得困难。我们需要学会在认知群岛化的新地形中智慧生存,建立基于共同责任而非意识形态纯洁性的社区。
杜克大学等机构研究团队通过三种互补方法分析了大语言模型推理过程,发现存在"思维锚点"现象——某些关键句子对整个推理过程具有决定性影响。研究表明,计划生成和错误检查等高层次句子比具体计算步骤更重要,推理模型还进化出专门的注意力机制来跟踪这些关键节点。该发现为AI可解释性和安全性研究提供了新工具和视角。
传统数据中心基础设施虽然对企业至关重要,但也是预算和房地产的重大负担。模块化数据中心正成为强有力的替代方案,解决企业面临的运营、财务和环境复杂性问题。这种模块化方法在印度日益流行,有助于解决环境问题、满足人工智能的电力需求、降低成本并支持新一代分布式应用。相比传统建设需要数年时间,工厂预制的模块化数据中心基础设施可在数周内部署完成。
法国索邦大学团队开发出智能医学文献管理系统Biomed-Enriched,通过AI自动从PubMed数据库中识别和提取高质量临床案例及教育内容。该系统采用两步注释策略,先用大型AI模型评估40万段落质量,再训练小型模型处理全库1.33亿段落。实验显示该方法仅用三分之一训练数据即可达到传统方法效果,为医学AI发展提供了高效可持续的解决方案。