20支来自亚太区的队伍共同挑战AI应用场景中的关键集合通信模型
美国加州Sunnyvale/北京时间2023年8月24日,国际高性能计算和人工智能咨询委员会(HPC-AI Advisory Council)宣布了第11届亚太区RDMA(Remote Direct Memory Access,远程内存直接访问)编程竞赛结果,上届冠军队,来自中国的西北工业大学队蝉联本次RDMA编程竞赛的冠军;南开大学队和香港中文大学与澳大利亚国立大学的港中文澳国立联队获得本次竞赛的第二名;中国科技大学队、北京邮电大学和南京邮电大学联队、台湾暨南大学的Pangolin队获得的第三名。
本次竞赛共有40多支来自亚太区各个大学和科研机构的学生团队和10多支来自亚太区科技企业的团队参加了为期5天的2023年亚太区RDMA编程课,20支队伍被选中参与了最后的为期两天编程竞赛,共同挑战AI应用中的典型集合通信模型 - Reduce/Scatter 通信场景,并通过先进的网络计算技术对其进行优化。Reduce/Scatter通信是当前热门的大语言模型应用中最关键的通信模型之一,在比赛过程中,参赛队伍表现出了极大的创新力和高超的编程能力,使 Reduce/Scatter集合通信性能得到了极大的性能提升。
本次竞赛由国际高性能计算和人工智能咨询委员会主办,得到了日本的PCCC(PC Cluster Consortium)、中国科学院计算科学研究所、清华大学和北京大学的大力支持,旨在为亚太区的学生们提供领先的RDMA编程课程的学习机会,并提供先进的软、硬件平台供学生们动手实践,再通过竞赛的形式来归纳和验证他们的学习效果,最终达到提升学生们的HPC和AI知识能力的效果。
赛后国际高性能计算和人工智能咨询委员会主席Gilad Shainer先生说到:“大模型时代的到来,需要在通信模型上进行创新,以满足单个训练集群动辄数千或者数万颗GPU对性能和效率的需求。网络设备,特别是网络计算技术及因此而出现的新型RDMA通信算法,将会是确保AI集群今后扩展无忧的关键技术。我们每年都要举办亚太区RDMA编程课和竞赛的目的就是帮助学生们扩展他们的知识面、提升他们的动手能力,让他们一走向社会后即能拥有最先进的知识。”
关于竞赛的更多详情,请访问国际高性能计算和人工智能咨询委员会网站 Student RDMA Programming Workshop And Competition - HPC Advisory Council.
好文章,需要你的鼓励
OpenAI首席执行官Sam Altman表示,鉴于投资者的AI炒作和大量资本支出,我们目前正处于AI泡沫中。他承认投资者对AI过度兴奋,但仍认为AI是长期以来最重要的技术。ChatGPT目前拥有7亿周活跃用户,是全球第五大网站。由于服务器容量不足,OpenAI无法发布已开发的更好模型,计划在不久的将来投资万亿美元建设数据中心。
阿里巴巴团队提出FantasyTalking2,通过创新的多专家协作框架TLPO解决音频驱动人像动画中动作自然度、唇同步和视觉质量的优化冲突问题。该方法构建智能评委Talking-Critic和41万样本数据集,训练三个专业模块分别优化不同维度,再通过时间步-层级自适应融合实现协调。实验显示全面超越现有技术,用户评价提升超12%。
英伟达推出新的小型语言模型Nemotron-Nano-9B-v2,拥有90亿参数,在同类基准测试中表现最佳。该模型采用Mamba-Transformer混合架构,支持多语言处理和代码生成,可在单个A10 GPU上运行。独特的可切换推理功能允许用户通过控制令牌开启或关闭AI推理过程,并可管理推理预算以平衡准确性和延迟。模型基于合成数据集训练,采用企业友好的开源许可协议,支持商业化使用。
UC Berkeley团队提出XQUANT技术,通过存储输入激活X而非传统KV缓存来突破AI推理的内存瓶颈。该方法能将内存使用量减少至1/7.7,升级版XQUANT-CL更可实现12.5倍节省,同时几乎不影响模型性能。研究针对现代AI模型特点进行优化,为在有限硬件资源下运行更强大AI模型提供了新思路。