4月13日, 历时5天的2024 ASC世界大学生超级计算机竞赛(ASC24)总决赛在上海落下帷幕。经过激烈的角逐,北京大学、中山大学分获冠亚军。
ASC24总冠军 北京大学
ASC24超算大赛历时近六个月,全球共有300余支高校代表队报名参加,经过预赛选拔出的25支队伍晋级本周在上海大学举行的总决赛,现场决赛队伍数量也创下历年之最。决赛要求各参赛队伍在3000瓦功耗约束下设计安装小型超算集群,运行优化国际通行基准测试HPL&HPCG、大模型推理优化、渗流数值模拟、火星大气模拟、新型材料结构计算等前沿科学与工程应用,并参加英文答辩。总决赛期间,25支队伍还通过抽签分为五组完成超级团队赛,通过跨团队合作,共同挑战地震波模拟赛题。
ASC24总决赛竞赛现场
总决赛争夺异常激烈,最终北京大学代表队发挥出色,在火星大气模拟、大模型推理优化、神秘应用新型材料电子结构计算等多个赛题表现突出,反映出全面、深刻的超算系统与应用理解能力以及出色的性能优化能力,夺得总冠军。中山大学代表队在渗流数值模拟、火星大气模拟、HPL&HPCG等多个赛题中都取得优异成绩,获得亚军。
ASC24亚军 中山大学
台湾新竹清华大学代表队在极具挑战性的渗流数值模拟赛题中,充分利用集群计算资源,在功耗约束下成功完成应用的大规模并行优化,以最短运行时间出色完成所有测试算例,取得全场最佳成绩,获得e Prize计算挑战奖。
ASC24 e Prize计算挑战奖 台湾新竹清华大学
由上海大学、南方科技大学、齐鲁工业大学、西南石油大学、香港理工大学等队组成的超级团队对地震波模拟赛题实现了高效优化,获得了超级团队奖。
ASC24 超级团队奖
上海大学、南方科技大学、齐鲁工业大学、西南石油大学、香港理工大学
此外,浙江大学代表队获得了最高计算性能奖。而山西大学、上海交通大学、北京航空航天大学等队伍凭借在单项赛题上的优异表现获得了应用创新奖。
ASC24最高计算性能奖 浙江大学
ASC24应用创新奖
山西大学、上海交通大学、北京航空航天大学
ASC专家委员会主席、图灵奖获得者、田纳西大学杰出教授杰克?唐加拉(Jack Dongarra)表示:“ASC激励下一代的高性能计算科学家和工程师们,使用最尖端的技术提供创新的解决方案。ASC竞赛是世界上最大的超算竞赛,致力于培养下一代青年人才,在超算和人工智能领域探索、创新和合作。”
Jack Dongarra ASC24闭幕式致辞
上海大学党委书记成旦红表示:“上海大学高度重视超算技术的研发和应用,积极培养相关领域的优秀人才。未来上海大学将聚焦超算领域建设和发展,不断强化学科交叉、平台建设和成果转化,持续优化专业设置和人才培养体系。”
上海大学党委书记成旦红致辞
中国科学院院士、上海大学校长刘昌胜表示:“通过承办此次ASC大赛,希望能够搭建更加广阔的超算技术交流舞台,不断推动超级计算技术发展,赋能AI for Education新范式,为科研创新、社会进步和人才培养做出更大贡献。”
中国科学院院士、上海大学校长刘昌胜致辞
ASC世界大学生超级计算机竞赛(ASC Student Supercomputer Challenge)由中国发起组织,并得到亚洲及欧美相关专家和机构支持,旨在通过大赛平台推动各国及地区间超算青年人才交流和培养,提升超算应用水平和研发能力,发挥超算的科技驱动力,促进科技与产业创新。ASC超算大赛迄今已举行至第十一届,吸引来自全球六大洲上万名大学生报名参赛,是全球最大规模的大学生超算竞赛。
ASC24全体成员赛场合影
好文章,需要你的鼓励
OpenAI CEO描绘了AI温和变革人类生活的愿景,但现实可能更复杂。AI发展将带来真正收益,但也会造成社会错位。随着AI系统日益影响知识获取和信念形成,共同认知基础面临分裂风险。个性化算法加剧信息茧房,民主对话变得困难。我们需要学会在认知群岛化的新地形中智慧生存,建立基于共同责任而非意识形态纯洁性的社区。
杜克大学等机构研究团队通过三种互补方法分析了大语言模型推理过程,发现存在"思维锚点"现象——某些关键句子对整个推理过程具有决定性影响。研究表明,计划生成和错误检查等高层次句子比具体计算步骤更重要,推理模型还进化出专门的注意力机制来跟踪这些关键节点。该发现为AI可解释性和安全性研究提供了新工具和视角。
传统数据中心基础设施虽然对企业至关重要,但也是预算和房地产的重大负担。模块化数据中心正成为强有力的替代方案,解决企业面临的运营、财务和环境复杂性问题。这种模块化方法在印度日益流行,有助于解决环境问题、满足人工智能的电力需求、降低成本并支持新一代分布式应用。相比传统建设需要数年时间,工厂预制的模块化数据中心基础设施可在数周内部署完成。
法国索邦大学团队开发出智能医学文献管理系统Biomed-Enriched,通过AI自动从PubMed数据库中识别和提取高质量临床案例及教育内容。该系统采用两步注释策略,先用大型AI模型评估40万段落质量,再训练小型模型处理全库1.33亿段落。实验显示该方法仅用三分之一训练数据即可达到传统方法效果,为医学AI发展提供了高效可持续的解决方案。