至顶网服务器频道 05月31日 新闻消息:NVIDIA于本周二正式宣布与世界四家大型计算机制造商签署协议,双方将采用由NVIDIA方面提供的图形芯片支持型服务器设计方案,从而支持各类要求极高的“超大型”数据中心内的人工智能相关工作负载。
此次与NVIDIA合作的原始设计制造商(简称ODM厂商)为四家来自台湾的计算机及其它电子产品制造商,其中包括鸿海精密工业有限公司(亦被称为富士康)、英业达公司、广达电脑公司以及纬创公司。它们将成为NVIDIA合作伙伴计划中的一部分,并有资格率先体验由NVIDIA图形处理单元(简称GPU)负责支持的HGX架构设计(如上图所示)。
根据本周于台北Computex大会上公布的消息,这套数据中心设计方案与微软公司内部的Olympus项目、Facebook的Big Basin系统以及NVIDIA自家的DGX-1超级计算机完全相同。NVIDIA方面此前已经面向Amazon Web Services等云计算供应商提供类似的项目,但这一次是其首度将架构开放给ODM厂商。
NVIDIA加速计算产品高级主管Keith Morris在接受采访时表示,该公司希望交付一套超大规模数据中心标准,旨在帮助各ODM厂商将NVIDIA技术方案纳入自家体系,从而更高更高效地实现产品上市。
Morris解释称,“我们正在试图实现AI民主化。”尽管他没有明确静态,但NVIDIA无疑正在努力保证其图形芯片始终在AI工作负载领域扮演核心角色——特别是考虑到英特尔甚至谷歌等竞争对手正不断向AI领域投入其它类型的芯片方案。总而言之,NVIDIA正在积极寻求可行途径,希望借此防止制造商大量使用可能冲击其市场份额的其它定制化芯片设计方案。
而在此次合作消息公布之前,NVIDIA刚刚于5月10号在其GPU技术大会上亮出一款针对人工智能进行优化的全新芯片,其高度关注深度学习神经网络并旨在实现自动驾驶车辆以及即时语言翻译等最新突破性应用。这款基于全新Volta架构的芯片能够在单一大型晶片之上封装约2100亿个晶体管。与NVIDIA的上代芯片相比,这款尺寸与Apple Watch类似的芯片能够将深度学习的执行速度提升约12倍。
今年第三季度将有一款采用这款芯片的全新NVIDIADGX-1超级计算设备正式投放市场,价格为14万9千美元; 而到今年第四季度,该芯片也将随同其它服务器制造商的产品一同推出。
NVIDIA表示,其HGX参考设计旨在满足超大规模云环境需求。其能够通过多种方式实现配置,将GPU与CPU相结合以实现高性能计算,同时可以对深度学习神经网络进行训练与运行。NVIDIA方面同时补充称,HGX亦面向云服务供应商长久以来所期盼的GPU云平台——该平台提供一系列开源深度学习框架,具体包括TensorFlow、Caffe2、Cognitive Toolkit以及MXNet。
纬创公司企业业务部门总裁兼首席技术官Donald Hwang在一份声明中指出,客户“渴望利用更多GPU计算能力以处理各类AI工作负载,通过这种新的合作关系,我们将能够更快提供此类新型解决方案。”
NVIDIA近年来的市场表现一直不错,这主要是由于其图形芯片已然成为AI类工作负载的核心支柱。根据今年5月9日发布的财报,其第一财季利润额度高于预期,达到上年同期的两倍以上。而消息发布之后,投资者们亦热烈响应,直接令NVIDIA的股价上涨达14%。
好文章,需要你的鼓励
IBM在量子开发者大会上发布两款新型量子处理器。Quantum Nighthawk配备120个量子比特和218个新一代可调耦合器,比前代产品增加20%耦合器,可执行复杂度提升30%的电路。Quantum Loon是实验性处理器,展示了实现极低错误率和高效错误恢复的所有组件。IBM计划2026年底确认首批量子优势案例,并于2029年交付大规模容错量子计算平台。
腾讯研究团队提出GCPO算法,通过引入"黄金答案"解决小型语言模型推理能力不足问题。当传统对比学习失效时,该方法为模型提供正确示例指导,在多个数学推理基准上取得25%-54%的性能提升,为小型模型突破能力边界提供了新思路。
VDURA数据平台第12版本通过扩展元数据计算、添加系统级快照功能和支持叠瓦磁记录硬盘来降低每TB成本。新版本引入弹性元数据引擎,可动态扩展元数据节点,将元数据操作性能提升最多20倍。快照功能支持即时的节省空间的数据集时点副本。SMR硬盘支持通过智能写入放置引擎,在不影响吞吐量的情况下每机架增加25-30%容量。
上海人工智能实验室联合多家机构推出MUSE框架,首次实现AI助手的经验学习与自我进化能力。MUSE采用三层记忆架构,通过"计划-执行-反思-记忆"循环,让AI能够像人类一样从工作中积累经验。在TAC基准测试中,MUSE创造性地达到51.78%成功率,成为首个突破50%大关的系统,标志着AI助手从静态工具向智能伙伴的重要转变。