就在几天前,另一台类似的学术研究用超级计算机刚刚入驻德国慕尼黑
HPE正为新的AI超级计算机揭开面纱。作为本周亮相的第二台AI超算,新系统意在为学术研究构建并训练出更大的机器学习模型。

这台最新超级计算机位于HPE在法国格勒诺布尔的卓越中心,为纪念19世纪在破译埃及象形文字方面取得重大进展的法国学者而命名为Champollion。此系统由HPE与英伟达合作构建,搭载有英伟达A100 GPU和AMD家的Apollo计算机节点。
HPE表示,Champollion将高性能计算(HPC)与专用AI技术结合起来,能够大规模训练机器学习模型并更快给出结果。HPE此前就一直通过格勒诺布尔卓越中心为客户及科研社区提供HPC与AI资源,并有计划向全球科学家和工程师开放Champollion访问权限,帮助他们加快AI建模和研究测试的速度。
这里所谓的“专用AI技术”,指的是HPE机器学习开发环境。这是一套软件平台,属于HPE上月推出的HPE机器学习开发系统的组成部分。
巧合的是,HPE机器学习开发系统同样搭载有英伟达GPU外加AMD家的Apollo计算机节点,所以Champollion在本质上可能就是对HPE机器学习开发系统的超大规模魔改。
HPE提到,Champollion采用20个HPE Apollo 6500 Gen10 Plus服务器节点、160个英伟达A100 GPU,再加上英伟达Quantum InfiniBand网络。HPE机器学习开发系统最低四节点起步,客户可以根据实际需求扩大资源规模。
如果真是基于HPE机器学习开发系统,那么Champollion的各个Apollo节点应该同样配备有4 TB内存和30 TB NVMe本地存储,同时可选HPE并行文件系统存储。系统之上运行有HPE机器学习开发环境,负责为模型的构建和训练工作提供一套可与各流行机器学习框架(例如TensorFlow和PyTorch)相兼容的集成平台。
HPE表示,Champollion目前已经向部分指定用户开放,并将在不久之后放宽使用范围,帮助更多用户开发并训练自己的模型。
本周早些时候,HPE还在慕尼黑莱布尼茨超级计算中心部署了另一台AI超级计算机,也就是HPE Superdome Flex服务器与Cerebras CS-2专用AI系统的结合产物。这套系统还在设计上优化了科学和工程类应用的加速能力。
好文章,需要你的鼓励
OpenAI首席执行官Sam Altman表示,鉴于投资者的AI炒作和大量资本支出,我们目前正处于AI泡沫中。他承认投资者对AI过度兴奋,但仍认为AI是长期以来最重要的技术。ChatGPT目前拥有7亿周活跃用户,是全球第五大网站。由于服务器容量不足,OpenAI无法发布已开发的更好模型,计划在不久的将来投资万亿美元建设数据中心。
阿里巴巴团队提出FantasyTalking2,通过创新的多专家协作框架TLPO解决音频驱动人像动画中动作自然度、唇同步和视觉质量的优化冲突问题。该方法构建智能评委Talking-Critic和41万样本数据集,训练三个专业模块分别优化不同维度,再通过时间步-层级自适应融合实现协调。实验显示全面超越现有技术,用户评价提升超12%。
英伟达推出新的小型语言模型Nemotron-Nano-9B-v2,拥有90亿参数,在同类基准测试中表现最佳。该模型采用Mamba-Transformer混合架构,支持多语言处理和代码生成,可在单个A10 GPU上运行。独特的可切换推理功能允许用户通过控制令牌开启或关闭AI推理过程,并可管理推理预算以平衡准确性和延迟。模型基于合成数据集训练,采用企业友好的开源许可协议,支持商业化使用。
UC Berkeley团队提出XQUANT技术,通过存储输入激活X而非传统KV缓存来突破AI推理的内存瓶颈。该方法能将内存使用量减少至1/7.7,升级版XQUANT-CL更可实现12.5倍节省,同时几乎不影响模型性能。研究针对现代AI模型特点进行优化,为在有限硬件资源下运行更强大AI模型提供了新思路。