5月9日,2018 ASC世界大学生超级计算机竞赛(ASC18)总决赛在南昌大学落下帷幕,清华大学成功卫冕总冠军,首次入围总决赛的“黑马”上海科技大学一鸣惊人,揽获亚军和e Prize计算挑战奖两项大奖,台湾清华大学获得最高计算性能奖。
2018 ASC世界大学生超级计算机竞赛(ASC18)
ASC18由亚洲超算协会、浪潮集团和南昌大学联合举办,共有全球300余支高校代表队报名,经过预赛选拔有20支队伍晋级总决赛。决赛要求参赛大学生队伍在3000瓦功耗约束下自行设计超算系统,运行优化国际通行基准测试、人工智能机器阅读理解、2017年诺贝尔化学奖冷冻电镜技术的核心应用Relion、美国国家航空航天局(NASA)著名计算流体力学软件CFL3D等前沿科学与工程应用。
上届冠军清华大学代表队在20强队伍中完成赛题数量最多且性能出色,总成绩遥遥领先,成功卫冕。在HPCG基准测试、神秘应用SIESTA、冷冻电镜应用Relion、CFD应用CFL3D多项赛题中均取得佳绩,反映出全面、深刻的超算系统与应用理解能力以及出色的性能优化能力。
清华大学获得ASC18超算竞赛冠军
上海科技大学代表队首次入围ASC总决赛斩获亚军和e Prize计算挑战奖,成为ASC18的最大“黑马”。其在备受关注的人工智能机器阅读理解赛题中,针对模型算法和训练性能提出了自己独特的创新及改进,8小时内完成大规模数据集的并行模型训练,并实现46.46的高预测精度,接近世界前沿先进水平,以此获得e Prize计算挑战大奖。
上海科技大学获得ASC18超算竞赛亚军和e Prize计算挑战奖
台湾清华大学代表队采用浪潮AI超算服务器配置Tesla GPU加速卡构建了先进的异构加速超算系统,并实现了精细功耗控制优化,运行国际通行的HPL基准测试,在3000W功耗约束下实现整体系统42.99万亿次/秒的持续浮点运算性能,大幅刷新了ASC17创下的赛事纪录,获得最高计算性能奖。
台湾清华大学获得ASC18超算竞赛最高计算性能奖
ASC竞赛专家委员会主席、全球最快超级计算机排行榜Top500发起人、美国橡树岭国家实验室及田纳西大学教授杰克·唐加拉(Jack Dongarra)表示:“参与ASC这样的比赛是一件令人激动的事情。我看到学生们花费很多时间、甚至不远万里赶来,每个人面对硬件、软件的问题和挑战都在努力执行任务、解决难题,这真的让人深感鼓舞。希望ASC竞赛能够为所有人带来快乐,不论是现在还是在不久的将来。”
ASC竞赛专家委员会主席、全球最快超级计算机排行榜Top500发起人 杰克·唐加拉(Jack Dongarra)
ASC竞赛发起人、中国工程院院士 王恩东认为,当前超级计算与大数据、云计算和人工智能相互融合、交叉应用的趋势愈发明显,超级计算机将成为未来智能社会的重要基础设施,其发展速度和水平将关乎社会发展、生活改善与文明进步。ASC作为一项全球化的超算竞赛,将在复合型超算精英培养与国际化学术交流上发挥更重要的作用,为智慧计算的发展奠定坚实基础。
ASC竞赛发起人、中国工程院院士 王恩东
ASC 世界大学生超级计算机竞赛(ASC Student Supercomputer Challenge)由中国发起组织,并得到亚洲及欧美相关专家和机构支持,旨在通过大赛平台推动各国及地区间超算青年人才交流和培养,提升超算应用水平和研发能力,发挥超算的科技驱动力,促进科技与产业创新。大赛迄今已连续举行7届,共吸引了全球超过5500名大学生参赛,是目前全球规模最大、参与人数最多的大学生超算赛事。
好文章,需要你的鼓励
OpenAI首席执行官Sam Altman表示,鉴于投资者的AI炒作和大量资本支出,我们目前正处于AI泡沫中。他承认投资者对AI过度兴奋,但仍认为AI是长期以来最重要的技术。ChatGPT目前拥有7亿周活跃用户,是全球第五大网站。由于服务器容量不足,OpenAI无法发布已开发的更好模型,计划在不久的将来投资万亿美元建设数据中心。
阿里巴巴团队提出FantasyTalking2,通过创新的多专家协作框架TLPO解决音频驱动人像动画中动作自然度、唇同步和视觉质量的优化冲突问题。该方法构建智能评委Talking-Critic和41万样本数据集,训练三个专业模块分别优化不同维度,再通过时间步-层级自适应融合实现协调。实验显示全面超越现有技术,用户评价提升超12%。
英伟达推出新的小型语言模型Nemotron-Nano-9B-v2,拥有90亿参数,在同类基准测试中表现最佳。该模型采用Mamba-Transformer混合架构,支持多语言处理和代码生成,可在单个A10 GPU上运行。独特的可切换推理功能允许用户通过控制令牌开启或关闭AI推理过程,并可管理推理预算以平衡准确性和延迟。模型基于合成数据集训练,采用企业友好的开源许可协议,支持商业化使用。
UC Berkeley团队提出XQUANT技术,通过存储输入激活X而非传统KV缓存来突破AI推理的内存瓶颈。该方法能将内存使用量减少至1/7.7,升级版XQUANT-CL更可实现12.5倍节省,同时几乎不影响模型性能。研究针对现代AI模型特点进行优化,为在有限硬件资源下运行更强大AI模型提供了新思路。