Nvidia今天宣布,正在帮助美国能源部的阿贡国家实验室建造又一台非常强大的超级计算机。
Polaris超级计算机(如图)据称是美国能源部迄今为止最大的、基于GPU的超计算机,将坐落于Argonne Leadership Computing Facility(ALCF),在那里它将以针对用户算法和科学的庞大规模,为科学研究和发现提供辅助。
目前HPE正在负责构建Polaris系统,到2022年初部署时,将有2240个Nvidia A100 Tensor Core GPU配置到总共560个节点中,从而使其能够实现近1.4 exaflops的理论AI性能,以及高达44 petaflops的峰值双精度性能。
Nvidia公司副总裁、加速计算总经理Ian Buck表示,Polaris将迎来百亿亿级人工智能新时代,将带来新的科学突破,为社会带来难以置信的好处。他说:“Nvidia GPU加速计算平台为ALCF这样的先驱提供了具有颠覆性的性能,让Polaris这样的下一代超级计算机能够帮助科研人员突破科学探索的界限。”
ALCF表示,Polaris系统已被指定用于加速诸如新癌症治疗、清洁能源、推动粒子碰撞研究以发现物理学新方法等项目的变革性科学探索,还将让ALCF的研究人员能够更新他们能够用于Aurora的科学项目,后者是即将于明年上线的百亿亿级超级计算机系统。
ALCF主任Michael E. Papka表示:“Polaris是一个强大的平台,让我们的用户进入百亿亿级人工智能时代。采用大量Nvidia A100 GPU将对我们数据密集型和AI HPC工作负载产生直接影响,让Polaris能够解决全球最为复杂的一些科学问题。”
ALCF表示,还将通过同行评审的分配和应用项目,为学术界、政府机构和工业界的研究人员提供Polaris系统,此举旨在帮助科学界解决科学和工程领域的一些“重大挑战”。
目前Nvidia在超级计算市场的份额越来越大。今年7月,Nvidia宣布参与了Cambridge-1系统的建设,这是英国性能最强大的超级计算机,拥有80个DGX A100计算模块。此外,Nvidia还为Perlmutter提供硬件支持,据说这是全球最快的超级计算机,专为AI工作负载构建,以及坐落在阿贡国家实验室的另一台名为Selene的超算系统。
好文章,需要你的鼓励
OpenAI首席执行官Sam Altman表示,鉴于投资者的AI炒作和大量资本支出,我们目前正处于AI泡沫中。他承认投资者对AI过度兴奋,但仍认为AI是长期以来最重要的技术。ChatGPT目前拥有7亿周活跃用户,是全球第五大网站。由于服务器容量不足,OpenAI无法发布已开发的更好模型,计划在不久的将来投资万亿美元建设数据中心。
阿里巴巴团队提出FantasyTalking2,通过创新的多专家协作框架TLPO解决音频驱动人像动画中动作自然度、唇同步和视觉质量的优化冲突问题。该方法构建智能评委Talking-Critic和41万样本数据集,训练三个专业模块分别优化不同维度,再通过时间步-层级自适应融合实现协调。实验显示全面超越现有技术,用户评价提升超12%。
英伟达推出新的小型语言模型Nemotron-Nano-9B-v2,拥有90亿参数,在同类基准测试中表现最佳。该模型采用Mamba-Transformer混合架构,支持多语言处理和代码生成,可在单个A10 GPU上运行。独特的可切换推理功能允许用户通过控制令牌开启或关闭AI推理过程,并可管理推理预算以平衡准确性和延迟。模型基于合成数据集训练,采用企业友好的开源许可协议,支持商业化使用。
UC Berkeley团队提出XQUANT技术,通过存储输入激活X而非传统KV缓存来突破AI推理的内存瓶颈。该方法能将内存使用量减少至1/7.7,升级版XQUANT-CL更可实现12.5倍节省,同时几乎不影响模型性能。研究针对现代AI模型特点进行优化,为在有限硬件资源下运行更强大AI模型提供了新思路。