Nvidia今天宣布,正在帮助美国能源部的阿贡国家实验室建造又一台非常强大的超级计算机。
Polaris超级计算机(如图)据称是美国能源部迄今为止最大的、基于GPU的超计算机,将坐落于Argonne Leadership Computing Facility(ALCF),在那里它将以针对用户算法和科学的庞大规模,为科学研究和发现提供辅助。
目前HPE正在负责构建Polaris系统,到2022年初部署时,将有2240个Nvidia A100 Tensor Core GPU配置到总共560个节点中,从而使其能够实现近1.4 exaflops的理论AI性能,以及高达44 petaflops的峰值双精度性能。
Nvidia公司副总裁、加速计算总经理Ian Buck表示,Polaris将迎来百亿亿级人工智能新时代,将带来新的科学突破,为社会带来难以置信的好处。他说:“Nvidia GPU加速计算平台为ALCF这样的先驱提供了具有颠覆性的性能,让Polaris这样的下一代超级计算机能够帮助科研人员突破科学探索的界限。”
ALCF表示,Polaris系统已被指定用于加速诸如新癌症治疗、清洁能源、推动粒子碰撞研究以发现物理学新方法等项目的变革性科学探索,还将让ALCF的研究人员能够更新他们能够用于Aurora的科学项目,后者是即将于明年上线的百亿亿级超级计算机系统。
ALCF主任Michael E. Papka表示:“Polaris是一个强大的平台,让我们的用户进入百亿亿级人工智能时代。采用大量Nvidia A100 GPU将对我们数据密集型和AI HPC工作负载产生直接影响,让Polaris能够解决全球最为复杂的一些科学问题。”
ALCF表示,还将通过同行评审的分配和应用项目,为学术界、政府机构和工业界的研究人员提供Polaris系统,此举旨在帮助科学界解决科学和工程领域的一些“重大挑战”。
目前Nvidia在超级计算市场的份额越来越大。今年7月,Nvidia宣布参与了Cambridge-1系统的建设,这是英国性能最强大的超级计算机,拥有80个DGX A100计算模块。此外,Nvidia还为Perlmutter提供硬件支持,据说这是全球最快的超级计算机,专为AI工作负载构建,以及坐落在阿贡国家实验室的另一台名为Selene的超算系统。
好文章,需要你的鼓励
这项由加州大学圣地亚哥分校和微软研究院合作开发的REAL框架,通过程序分析反馈训练大型语言模型生成高质量代码。与传统方法不同,REAL采用强化学习将代码安全性和可维护性作为奖励信号,不依赖人工标注或特定规则。研究在多个数据集上的实验表明,REAL在保证功能正确性的同时显著提高了代码质量,有效解决了"即兴编程"中的安全漏洞和维护性问题,为AI辅助编程提供了新的范式。
加州大学伯克利分校与Meta FAIR研究团队开发了"Self-Challenging"框架,让大语言模型通过自己创建和解决任务来提升能力。该方法引入创新的"Code-as-Task"格式,包含指令、验证函数、示例解决方案和失败案例,确保生成的任务既可行又有挑战性。在工具计算、网页浏览、零售服务和航班预订四种环境测试中,仅使用自生成训练数据,Llama-3.1-8B模型性能提升了两倍多,证明AI可以通过自我挑战实现有效学习,减少对人类标注的依赖。
南洋理工大学与SenseTime Research合作提出了PoseFuse3D-KI,一种创新的人体中心关键帧插值框架。该方法将3D人体模型信息融入扩散过程,解决了现有技术在处理复杂人体动作时产生扭曲结果的问题。研究团队开发了专门的SMPL-X编码器直接从3D空间提取几何信息,并设计了融合网络将3D线索与2D姿态无缝整合。他们还构建了CHKI-Video数据集,包含2,614个视频片段及完整的人体标注。实验结果显示,PoseFuse3D-KI在PSNR上提升9%,LPIPS减少38%,显著超越现有方法。
这项研究提出了LongGuide算法,解决了大型语言模型在长文本生成任务中的局限性。研究团队发现,仅依靠上下文学习无法使模型充分掌握文本的语言和格式特性。LongGuide通过自动生成两种指导原则:度量指导原则和输出约束指导原则,显著提升了模型性能。在七种长文本生成任务中,该方法使开源和闭源模型的ROUGE-L评分平均提高约6%。LongGuide具有通用性强、易于学习、成本效益高等优点,为提升AI长文本生成能力提供了新方向。