与新加坡国家超级计算中心和澳大利亚国家计算基础设施中心联合举办的年度竞赛汇聚了亚太地区的众多精英学生团队共话HPC和AI技术
美国加州桑尼维尔/新加坡 – 2022年5月19日 – 国际高性能计算与人工智能咨询委员会、新加坡国家超级计算中心(NSCC)和澳大利亚国家计算基础设施中心(NCI)联合宣布第五届亚太区HPC-AI大学生竞赛胜利召开。为期6个月的竞赛,将面向亚太地区各个国家的大学生和研究生,共同探讨技术开发,挑战对高性能计算(HPC)和人工智能(AI)技术的理解,并以饱满的热情向国际评委会展示参赛团队的竞赛成果。
2022届亚太HPC-AI竞赛已经吸引了来自12个国家和地区的22个学生团队,共计上百名学生奋力鏖战,向梦寐以求的年度最佳团队桂冠发起冲锋。
今年的竞赛关键任务聚焦三个热点研究课题,将应用HPC和AI 技术来加深理解,以期寻找提升人类健康问题的答案,并促进我们共同的地球资源和环境实现可持续发展。这些课题包含使用HPC技术来解构面向未来的绿色能源机理,使用人工智能技术训练和分析卫星数据以实现更好的气候模型和天气预报,以及使用深度学习方法来实现DNA序列快速解码来增强疾病预防和医疗护理。
2022年竞赛的3个主题任务是:
转录因子(TF)在基因表达调控网络中扮演了关键角色。参赛团队需要使用基于深度学习的AI模型来高清晰度解码转录因子结合位点,以更好地理解转录因子的调控机制。
国际高性能计算与人工智能咨询委员会、新加坡国家超级计算中心和澳大利亚国家计算基础设施中心将联合为所有参赛选手提供HPC和AI基础培训和竞赛任务训练等支持。此外,新加坡国家超级计算中心和澳大利亚国家计算基础设施中心还将为所有参赛队伍提供CPU和GPU集群资源以帮助参赛选手实现编程和上机实践。
“亚太区HPC-AI竞赛已经成为了精彩的年度盛会,来自亚太各地区的数百学生一起,共同探讨、夯实HPC和AI基础知识,围绕对世界至关重要的课题开展工作”, 国际高性能计算和人工智能咨询委员会主席Gilad Shainer说,”我们希望每个参赛学生都能通过竞赛获得成就,同时感谢新加坡国家超级计算中心和澳大利亚国家计算基础设施中心对竞赛提供的教育、培训和资源支持”。
“亚太地区人口占世界总人口的60%,因此2022年竞赛选择的人类健康和环境相关的任务对亚太地区特别有意义。年度HPC-AI竞赛已成为一个至关重要的培训基地,培育了大量的HPC和AI专业人员,并且为他们创造直面挑战的机会”,新加坡国家超级计算中心主任Tan Tin Wee表示,”与国际高性能计算和人工智能咨询委员会,以及我们的紧密合作伙伴澳大利亚国家计算基础设施中心的通力合作,将有力帮助本地区的学生和团体实现HPC和AI技术的进步”。
“HPC-AI竞赛为学生创造直面真实世界课题的机会,鼓励学生使用创新的方法来思考和处理问题”,澳大利亚国家计算基础设施中心培训和研究主管Jingbo Wang博士表示,”我们期待一个精彩而有教育意义的竞赛,衷心感谢国际高性能计算和人工智能咨询委员会的鼎力合作,帮助促进本地区的HPC和AI专家人才库建设和成长”。
最终获胜团队将于2022年11公布,然后将于2023年2月28日到3月2日在新加坡举办的SupercomputingAsia 2023大会期间举办正式的授奖庆典活动。
更多关于竞赛的信息请访问 www.hpcadvisorycouncil.com。
好文章,需要你的鼓励
OpenAI首席执行官Sam Altman表示,鉴于投资者的AI炒作和大量资本支出,我们目前正处于AI泡沫中。他承认投资者对AI过度兴奋,但仍认为AI是长期以来最重要的技术。ChatGPT目前拥有7亿周活跃用户,是全球第五大网站。由于服务器容量不足,OpenAI无法发布已开发的更好模型,计划在不久的将来投资万亿美元建设数据中心。
阿里巴巴团队提出FantasyTalking2,通过创新的多专家协作框架TLPO解决音频驱动人像动画中动作自然度、唇同步和视觉质量的优化冲突问题。该方法构建智能评委Talking-Critic和41万样本数据集,训练三个专业模块分别优化不同维度,再通过时间步-层级自适应融合实现协调。实验显示全面超越现有技术,用户评价提升超12%。
英伟达推出新的小型语言模型Nemotron-Nano-9B-v2,拥有90亿参数,在同类基准测试中表现最佳。该模型采用Mamba-Transformer混合架构,支持多语言处理和代码生成,可在单个A10 GPU上运行。独特的可切换推理功能允许用户通过控制令牌开启或关闭AI推理过程,并可管理推理预算以平衡准确性和延迟。模型基于合成数据集训练,采用企业友好的开源许可协议,支持商业化使用。
UC Berkeley团队提出XQUANT技术,通过存储输入激活X而非传统KV缓存来突破AI推理的内存瓶颈。该方法能将内存使用量减少至1/7.7,升级版XQUANT-CL更可实现12.5倍节省,同时几乎不影响模型性能。研究针对现代AI模型特点进行优化,为在有限硬件资源下运行更强大AI模型提供了新思路。