2019亚太区HPC-AI挑战赛即将在新加坡开赛,召聚顶尖参赛队伍,展示最先进的HPC和AI技术
北京——2019年1月26日——致力于高性能计算(HPC)和人工智能(AI)技术研究、教育和推广的HPC-AI咨询委员会,携手新加坡国家超级计算中心(NSCC)宣布正式启动第二届亚太区HPC-AI挑战赛招募,比赛将在2019年3月12日的亚洲超算大会上正式开赛,并持续至2019年8月结束。本次大赛面向亚太地区所有高校和技术机构/团队开放,赛事将围绕AI开发与测试所面临的挑战,以及大负载高性能计算面临的挑战而展开。获胜队伍将受邀前往德国,参加2020年ISC20国际大学生超算大赛。
大赛主办方鼓励来自各国的参赛队伍充分发挥团队的创造性,既可以针对目前在高性能计算(HPC)和人工智能(AI)领域面临的挑战提出解决方案,还鼓励开拓新的任务,促进HPC和AI领域的国际交流。为了赢得最高荣誉,各参赛团队需要展示其优秀的开发实力,遵循严格的比赛规范,并在一系列HPC和AI标准应用和基准测试中实现最高性能。
据悉,在2018年举办的首届亚太区HPC-AI挑战赛中,有来自包括中国、新加坡、日本、韩国、泰国等8个国家和地区的18支队伍参赛,参赛队伍无论是在技术实力,还是团队协作上均有超高水平的表现。其中,来自中国的清华大学团队赢得各国专家的一致认可,拔得头筹,其参赛队员并被知名互联网公司抢先录取。
本届比赛延续了第一届强大的评审团队阵容,除了HPC-AI咨询委员会的技术专家外,还邀请了国际知名高校如俄亥俄州立大学,麻省大学波士顿分校的专家,新加坡国家超级计算中心和澳大利亚Pawsey超级计算中心的权威人士,以及来自Nvidia和Mellanox等公司的行业专家前来助阵,令人十分期待。同时竞赛还得到了Sensetime、Mellanox、Excelero、WekaIO和E8等国际知名科技公司的大力支持,共同挑战新的HPC和AI难题。
国际高性能计算及人工智能咨询委员会(HPC-AI Advisory Council)亚太区主席宋庆春
国际高性能计算及人工智能咨询委员会(HPC-AI Advisory Council)亚太区主席宋庆春表示:“HPC-AI咨询委员会在全球有超过400家的会员,通过追求技术创新,为更多的用户提供通用平台一直是我们的使命。HPC和AI采用相似的技术以及基础架构,能够帮助高校、研究型实验室和商业机构开发面向未来的产品和服务,这对改善人们的生活和环境具有极大的意义。在以数据为核心的网络计算时代,我们鼓励更多的高校和机构参与进来,深入了解HPC和AI技术并付诸于实践,从中获取宝贵的行业知识和培训经验,为未来的职业发展获取先机”。
新加坡国家超级计算中心首席执行官Tan Tin Wee教授表示:“希望通过本次大赛发掘更多创新的亮点,进一步促进基于HPC平台的AI发展,提升AI运算性能。新加坡国家超级计算中心(NSCC)将为比赛提供千万亿次的HPC平台,并积极召集拥有不同专业技能的技术达人,一同解决大规模计算所带来的技术难题。”
访问2019亚太地区HPC-AI竞赛网站,了解参赛规则并注册报名。
支持性资源:
如需了解更多大赛信息、赞助方式和一般性问题,请发送邮件至info@hpcadvisorycouncil.com
HPC-AI咨询委员会是一家非盈利性国际组织,成立于2008年,拥有400多名成员,致力于HPC-AI技术的教育与推广。成员间共享专业知识,建立特殊兴趣小组,并通过技术中心宣传HPC和AI技术的优势与应用,探索未来发展方向。该咨询委员会主办了多次全球性年度会议和STEM挑战赛(包括中国的大学生RDMA编程竞赛和德国的大学生集群竞赛)。
新加坡国家超级计算机中心(NSCC)成立于2015年,负责管理新加坡首个国家级千万亿次超算设施,拥有高性能计算(HPC)资源,可支持学术、研究和行业社区的科学和工程计算需求。NSCC的成立资金来自包括新加坡科技研究局(A*STAR)、新加坡南洋理工大学(NTU)、新加坡国立大学(NUS)和新加坡科技设计大学(SUTD)在内的赞助方,以及新加坡贸易和工业部(MTI)的大力资助,致力于实现超算的普及化。NSCC与本地和国际组织合作推动HPC项目,为国家级研究和开发机构提供支持,促进行业内的研究与合作,以进一步提升新加坡的科研实力。
好文章,需要你的鼓励
微软近年来频繁出现技术故障和服务中断,从Windows更新删除用户文件到Azure云服务因配置错误而崩溃,质量控制问题愈发突出。2014年公司大幅裁减测试团队后,采用敏捷开发模式替代传统测试方法,但结果并不理想。虽然Windows生态系统庞大复杂,某些问题在所难免,但Azure作为微软核心云服务,反复因配置变更导致客户服务中断,已不仅仅是质量控制问题,更是对公司技术能力的质疑。
Meta研究团队发现仅仅改变AI示例间的分隔符号就能导致模型性能产生高达45%的巨大差异,甚至可以操纵AI排行榜排名。这个看似微不足道的格式选择问题普遍存在于所有主流AI模型中,包括最先进的GPT-4o,揭示了当前AI评测体系的根本性缺陷。研究提出通过明确说明分隔符类型等方法可以部分缓解这一问题。
当团队准备部署大语言模型时,面临开源与闭源的选择。专家讨论显示,美国在开源AI领域相对落后,而中国有更多开源模型。开源系统建立在信任基础上,需要开放数据、模型架构和参数。然而,即使是被称为"开源"的DeepSeek也并非完全开源。企业客户往往倾向于闭源系统,但开源权重模型仍能提供基础设施选择自由。AI主权成为国家安全考量,各国希望控制本地化AI发展命运。
香港中文大学研究团队开发出CALM训练框架和STORM模型,通过轻量化干预方式让40亿参数小模型在优化建模任务上达到6710亿参数大模型的性能。该方法保护模型原生推理能力,仅修改2.6%内容就实现显著提升,为AI优化建模应用大幅降低了技术门槛和成本。