美国俄亥俄州超级计算机中心(OSC)正在建立造一个用于人工智能应用的新高性能计算集群,该集群基于戴尔硬件,配备了AMD Epyc处理器和Nvidia GPU加速器。
该新高性能计算集群名为Ascend,将在今年晚些时候推出,主打支持OSC的人工智能、机器学习、大数据和数据分析工作,OSC是坊间知名的公私合作和工业高性能计算机构。据OSC称,Ascend将和旗下现有的Pitzer 和 Owens计算集群合在一起,整个设施的人工智能、建模和模拟能力可提高两倍。
据OSC中心副主任Doug Johnson表示,在过去几年里,OSC对GPU资源的需求不断增长,因此Ascend将是OSC的第一个完全致力于提供基于GPU密集处理能力的计算集群。
他表示,“建立一个专注于快速分析非常大的数据集的集群,进而提供我们目前的系统上不能运行的人工智能机器学习应用以及一些需要最快GPU的模拟,OSC将可以更好地满足这些客户的需求,同时确保迅速处理我们现有集群Pitzer 和 Owens的请求。”
新集群的硬件包括24个戴尔PowerEdge XE8545服务器节点,配有4U机架式系统及双AMD Eypc第三代处理器。每个节点将配置四个Nvidia A100 80GB GPU,并与Nvidia Quantum HDR 200Gbps网络互连。
Ascend网站目前参与了两个美国国家科学基金会资助的项目,两个项目旨在推进人工智能工作。第一个项目是智能网络基础设施与环境计算学习人工智能研究所(ICICLE),该研究所由俄亥俄州立大学领头,旨在开发下一代网络基础设施,重点放在人工智能的普及。
第二个项目是将于今年举行的“网络基础设施(CI)专业人员AI训练营”,该训练营的焦点是在全国范围内的诸如OSC一类的研究计算设施培养其工作人员的人工智能技能。
OSC的研究软件应用主管Karen Tomko表示,Ascend将为ICICLE研究团队提供探索和开发新的人工智能技术方面最先进的资源,同时也令OSC自己的员工有机会增加对人工智能工作负载的了解以及支持该增长领域的最佳实践。
Ascend将可以通过OSC的OnDemand门户网站访问,而该网站的客户服务团队将评估在该集群上运行项目的请求。OSC表示将在今年夏天给出Ascend推出日期和可用性的更详细时间表。
好文章,需要你的鼓励
OpenAI首席执行官Sam Altman表示,鉴于投资者的AI炒作和大量资本支出,我们目前正处于AI泡沫中。他承认投资者对AI过度兴奋,但仍认为AI是长期以来最重要的技术。ChatGPT目前拥有7亿周活跃用户,是全球第五大网站。由于服务器容量不足,OpenAI无法发布已开发的更好模型,计划在不久的将来投资万亿美元建设数据中心。
阿里巴巴团队提出FantasyTalking2,通过创新的多专家协作框架TLPO解决音频驱动人像动画中动作自然度、唇同步和视觉质量的优化冲突问题。该方法构建智能评委Talking-Critic和41万样本数据集,训练三个专业模块分别优化不同维度,再通过时间步-层级自适应融合实现协调。实验显示全面超越现有技术,用户评价提升超12%。
英伟达推出新的小型语言模型Nemotron-Nano-9B-v2,拥有90亿参数,在同类基准测试中表现最佳。该模型采用Mamba-Transformer混合架构,支持多语言处理和代码生成,可在单个A10 GPU上运行。独特的可切换推理功能允许用户通过控制令牌开启或关闭AI推理过程,并可管理推理预算以平衡准确性和延迟。模型基于合成数据集训练,采用企业友好的开源许可协议,支持商业化使用。
UC Berkeley团队提出XQUANT技术,通过存储输入激活X而非传统KV缓存来突破AI推理的内存瓶颈。该方法能将内存使用量减少至1/7.7,升级版XQUANT-CL更可实现12.5倍节省,同时几乎不影响模型性能。研究针对现代AI模型特点进行优化,为在有限硬件资源下运行更强大AI模型提供了新思路。