IBM 发布了其最新的大型计算机系统 Z17,该系统据称重新定义了大规模人工智能。这款新一代大型机系统搭载 IBM Telum II 处理器,根据 IBM 的说法,它已针对生成式 AI 和智能代理 AI 等工作负载进行了优化。
在 AI 性能方面,IBM 表示 Z17 使企业能够对所有交易进行实时分析,与前代产品 Z16 相比,其每日 AI 推理运算能力提升了 50%。
Z17 的 AI 推理能力由 IBM 所称的"第二代片上 AI 加速器"提供支持,该加速器已集成在 IBM Telum II 处理器中。
这款 AI 加速器提供了更高的频率和计算能力,以及增大 40% 的缓存,IBM 表示这使其能够在一天内执行超过 4500 亿次推理运算,响应时间仅为一毫秒。
Z17 还提供了 IBM Spyre 加速器,该功能将于今年晚些时候推出。它提供了额外的 AI 计算能力,以补充 Telum II 处理器的功能。根据 IBM 的说法,Spyre 和 Telum II 加速器的组合意味着 Z17 可以支持多模型 AI。Spyre 为 Z17 增加了生成式 AI 功能,IBM 表示这使得大型机系统能够安全运行大语言模型 (LLM) 和 AI 助手。
IBM 基础设施高级副总裁 Ric Lewis 在谈到这将如何帮助使用 Z17 的企业时说:"业界正在迅速认识到,AI 的价值取决于其运行的基础设施。目前只有 1% 的企业数据被用于大语言模型。通过 Z17,企业可以以安全、经济的方式利用其尚未开发的企业数据进行 AI 应用。"
IBM 还通过集成 IBM Watsonx Code Assistant for Z 和 IBM Watsonx Assistant for Z 为 Z17 增加了 AIops 功能。IBM 表示,Watsonx Assistant for Z 将与 Z Operations Unite 集成,首次使用实时系统数据提供基于 AI 聊天的事件检测和解决方案。
除了 Z17,公司还发布了 IBM Z Operations Unite,它以 OpenTelemetry 格式整合了来自 IBM Z 多个来源的运营数据,据称可通过 AI 简化 IT 运营。
根据 IBM 的说法,这款 IT 工具帮助管理员更快地检测异常,使他们能够隔离潜在事件的影响,并将解决时间从数小时缩短到数分钟。IBM Z Operations Unite 提供了 IBM 所称的"来自多个来源的事件智能关联"。它还可以与 Watsonx Assistant for Z 协同工作,后者可以提供专家建议,并使 IT 运营团队能够基于这些指导采取行动。
IBM 还采取了措施帮助客户部署量子安全加密。IBM 首席产品官 Tina Tarquinio 表示:"我们的系统已具备量子安全加密功能,现在我们正在引入新工具,帮助客户更快地开启量子安全之旅。"她将量子安全技术的部署描述为"一项重要工作",涉及切换加密算法。
好文章,需要你的鼓励
这篇研究论文介绍了"Speechless",一种创新方法,可以在不使用实际语音数据的情况下训练语音指令模型,特别适用于越南语等低资源语言。研究团队通过将文本指令转换为语义表示,绕过了对高质量文本转语音(TTS)系统的依赖。该方法分三个阶段:首先训练量化器将语音转为语义标记;然后训练Speechless模型将文本转为这些标记;最后用生成的合成数据微调大型语言模型。实验表明,该方法在越南语ASR任务中表现出色,为低资源语言的语音助手开发提供了经济高效的解决方案。
《Transformer Copilot》论文提出了一种革命性的大语言模型微调框架,通过系统记录和利用模型训练过程中的"错误日志"来提升推理性能。研究团队受人类学习者记录和反思错误的启发,设计了一个"副驾驶"模型来辅助原始"驾驶员"模型,通过学习错误模式并在推理时校正输出。这一方法在12个基准测试上使模型性能提升高达34.5%,同时保持计算开销最小,展现了强大的可扩展性和可迁移性,为大语言模型的优化提供了全新思路。
德克萨斯大学Austin分校的研究团队提出了RIPT-VLA,一种创新的视觉-语言-动作模型后训练范式。该方法通过让AI模型与环境互动并仅接收简单的成功/失败反馈来学习,无需复杂的奖励函数或价值模型。实验证明,RIPT-VLA能显著提升现有模型性能,在轻量级QueST模型上平均提升21.2%,将大型OpenVLA-OFT模型推至97.5%的前所未有成功率。最令人惊叹的是,仅用一个示范样本,它就能将几乎不可用的模型在15次迭代内从4%提升至97%的成功率,展现出卓越的数据效率和适应能力。
北京大学与华为诺亚方舟实验室研究团队共同开发了TIME基准,这是首个专为评估大语言模型在真实世界场景中的时间推理能力而设计的多层级基准。该研究提出了三个层级的时间推理框架,包含11个细粒度任务,并构建了涵盖38,522个问答对的数据集,针对知识密集型信息、快速变化的事件动态和社交互动中的复杂时间依赖性三大现实挑战。实验结果表明,即使是先进模型在构建时间线和理解复杂时间关系方面仍面临显著挑战,而测试时扩展技术可明显提升时间逻辑推理能力。