据IDC预计,到2021年将有75%的企业应用采用人工智能。为了更好地应对这一不断增长的市场,IBM今天推出了一款功能强大的AI优化融合系统——Spectrum AI with Nvidia DGX。
如今市场中有越来越多专门为机器学习量身定制的数据中心平台。今年9月,思科推出了一款人工智能服务器,该服务器配置了8个Nvidia顶级的Tesla V100 GPU。今年早些时候,NetApp和Pure Storage推出采用了Nvidia DGX-1的AI优化平台。
正如其名,Spectrum AI with Nvidia DGX也是基于Nvidia DGX。与思科的服务器一样,DGX-1包括8个Tesla V100 GPU,超过45000个处理核心,其中大约5000个核心被成为Tensor Cores的专用电路,可以很好地运行机器学习模型。
根据Nvidia的说法,这款芯片让DGX-1能够提供超过千万亿次的计算能力。
IBM的新系统将DGX-1与其自己的Elastic Storage Server进行搭配,后者是IBM的一个存储平台,可以提供高达1PB的可用闪存容量,采用IBM Spectrum Scale管理软件。
采用Spectrum Scale的原因有几个,其中最主要的是Spectrum Scale被用于全球最强大的超级计算机Summit。除了能够容纳大量数据外,该软件还提供了广泛的管理功能,其中有一款工具可以让IT团队将环境中的一些记录卸载到公有云上。
此外,Spectrum AI with Nvidia DGX还采用了Nvidia两个月前发布的RAPIDS框架。这是一组可以与主流AI和分析工具一起安装库,让Nvidia的GPU释放更多的计算能力。
据IBM称,Spectrum AI with Nvidia DGX适用于各种规模的项目。企业可以使用一个Elastic Storage Server和少量DGX-1设置Spectrum AI with Nvidia DGX,或者部署多个机架的设备。配备了9个DGX-1设备的一个机架可以提供高达每秒120GB的数据吞吐量,IBM表示这比测试的所有竞争对手解决方案都要多。
好文章,需要你的鼓励
这项研究由浙江大学、复旦大学等机构联合完成,提出了ReVisual-R1模型,通过创新的三阶段训练方法显著提升了多模态大语言模型的推理能力。研究发现优化的纯文本冷启动训练、解决强化学习中的梯度停滞问题、以及分阶段训练策略是关键因素。ReVisual-R1在各类推理基准测试中超越了现有开源模型,甚至在某些任务上超过了商业模型,为多模态推理研究开辟了新途径。
这项研究提出了一种名为"批评式微调"的创新方法,证明仅使用一个问题的批评数据就能显著提升大语言模型的推理能力。研究团队对Qwen和Llama系列模型进行实验,发现这种方法在数学和逻辑推理任务上都取得了显著提升,平均提高15-16个百分点,而且只需要强化学习方法1/20的计算资源。这种简单高效的方法为释放预训练模型的潜在推理能力提供了新途径。
新加坡国立大学研究团队开发了名为IEAP的图像编辑框架,它通过将复杂编辑指令分解为简单原子操作序列解决了当前AI图像编辑的核心难题。研究发现当前模型在处理不改变图像布局的简单编辑时表现出色,但在需要改变图像结构时效果差。IEAP框架定义了五种基本操作,并利用思维链推理技术智能分解用户指令,实验证明其性能显著超越现有方法,尤其在处理复杂多步骤编辑时。
Character AI的研究者开发出TalkingMachines系统,通过自回归扩散模型实现实时音频驱动视频生成。研究将预训练视频模型转变为能进行FaceTime风格对话的虚拟形象系统。核心创新包括:将18B参数的图像到视频DiT模型改造为音频驱动系统、通过蒸馏实现无错误累积的无限长视频生成、优化工程设计降低延迟。系统可让多种风格的虚拟角色与人进行自然对话,嘴型与语音同步,为实时数字人交互技术开辟了新可能。