据IDC预计,到2021年将有75%的企业应用采用人工智能。为了更好地应对这一不断增长的市场,IBM今天推出了一款功能强大的AI优化融合系统——Spectrum AI with Nvidia DGX。
如今市场中有越来越多专门为机器学习量身定制的数据中心平台。今年9月,思科推出了一款人工智能服务器,该服务器配置了8个Nvidia顶级的Tesla V100 GPU。今年早些时候,NetApp和Pure Storage推出采用了Nvidia DGX-1的AI优化平台。
正如其名,Spectrum AI with Nvidia DGX也是基于Nvidia DGX。与思科的服务器一样,DGX-1包括8个Tesla V100 GPU,超过45000个处理核心,其中大约5000个核心被成为Tensor Cores的专用电路,可以很好地运行机器学习模型。
根据Nvidia的说法,这款芯片让DGX-1能够提供超过千万亿次的计算能力。
IBM的新系统将DGX-1与其自己的Elastic Storage Server进行搭配,后者是IBM的一个存储平台,可以提供高达1PB的可用闪存容量,采用IBM Spectrum Scale管理软件。
采用Spectrum Scale的原因有几个,其中最主要的是Spectrum Scale被用于全球最强大的超级计算机Summit。除了能够容纳大量数据外,该软件还提供了广泛的管理功能,其中有一款工具可以让IT团队将环境中的一些记录卸载到公有云上。
此外,Spectrum AI with Nvidia DGX还采用了Nvidia两个月前发布的RAPIDS框架。这是一组可以与主流AI和分析工具一起安装库,让Nvidia的GPU释放更多的计算能力。
据IBM称,Spectrum AI with Nvidia DGX适用于各种规模的项目。企业可以使用一个Elastic Storage Server和少量DGX-1设置Spectrum AI with Nvidia DGX,或者部署多个机架的设备。配备了9个DGX-1设备的一个机架可以提供高达每秒120GB的数据吞吐量,IBM表示这比测试的所有竞争对手解决方案都要多。
好文章,需要你的鼓励
甲骨文云基础设施与xAI达成合作,OCI将为企业客户托管xAI的Grok模型。此次合作使Grok 3等模型可供以数据为中心的客户群进行训练和推理,支持Nvidia和AMD加速器。OCI采用独特的AI策略,专注于企业数据需求,保持模型和工具的不可知论立场,让生态系统合作伙伴专注于提供工具,而OCI确保体验的无摩擦、高性能和安全性。
华为诺亚实验室联合多家顶尖院校推出开源机器人编程框架Ark,通过Python优先设计和模块化架构,实现仿真与现实环境的无缝切换。该框架大幅降低机器人编程门槛,支持现代AI技术集成,为机器人学习研究提供统一平台,有望加速机器人技术普及。
量子计算何时能商用化仍是行业关注焦点。专家指出,除了逻辑量子比特和错误纠正技术,量子计算系统还面临诸多挑战:激光器缺乏相干性、稀释制冷机难以适应数据中心环境、系统可扩展性不足等硬件问题。此外,量子计算机需要达到99.999%的运行时间要求,编程易用性和与传统高性能计算的混合架构复杂性也有待解决。
网易有道研究团队开发了Confucius3-Math,这是一个专门针对中国K-12数学教育的14B参数AI模型。该模型在多项数学推理测试中表现出色,超越了许多规模更大的竞争对手,训练成本仅需2.6万美元,推理速度比DeepSeek-R1快15倍,能在消费级GPU上高效运行,旨在通过降低AI教育成本来促进教育公平。