IBM的Spyre加速器将于本月底正式发布,为其企业级硬件提供AI能力提升,包括z17大型机、LinuxONE 5和Power11系统。
IBM将Spyre描述为专门构建用于处理AI处理需求的加速器,将于10月28日面向IBM z17和LinuxONE 5系统正式发布,12月初面向Power11服务器发布。
IBM Spyre加速器
该硬件在今年早些时候与z17一同发布,z17是IBM最新的大型机产品。它是基于定制芯片的PCIe卡,配备32个独立加速器核心,据了解其架构类似于嵌入在为z17提供动力的Telum II处理器中的AI加速器硬件。
其设计目的是让AI处理能够扩展以满足客户对IBM企业系统的任何需求,这些需求通常包括对金融交易的欺诈检测检查,但生成式AI和大语言模型现在也可能成为工作负载组合中的一个特色。
因此,可以在IBM Z或LinuxONE系统中配置多达48张Spyre卡的集群,或在Power系统中配置多达16张卡。
IBM基础设施首席运营官Barry Baker表示:"我们的关键优先事项之一是推进基础设施以满足新兴AI工作负载的需求。通过Spyre加速器,我们正在扩展系统功能以支持多模型AI,包括生成式和智能体AI。这一创新使客户能够以不妥协的安全性、弹性和效率扩展其AI支持的关键任务工作负载,同时释放其企业数据的价值。"
多模型(非多模态)是指使用多个模型来提高准确性并减少假阳性,当执行推理工作时。
IBM在z17发布时声称,它看到了一个新兴趋势,即结合预测性AI和大语言模型的优势来提取新特征或新见解,以获得更好或更准确的结果。
Gartner基础设施和运营组管理副总裁Mike Chuba当时告诉我们,IBM在理解和支持其大型机客户需求方面投入了更多努力。
"IBM的研发工作现在专注于新硬件如何直接解决客户面临的挑战。对AI的关注,以及他们在z16上引入的专用加速器和这一代产品中即将推出的涡轮增压版本2,直接解决了例如在交易点进行欺诈检测的挑战。"
9月底,IBM还发布了z/OS 3.2,这是其大型机操作系统的最新版本。这为z17中的AI加速器技术提供了支持,还具有使z/OS数据在混合云和AI环境中无需依赖提取-转换-加载(ETL)过程即可访问的功能。
IBM此前表示,此版本将添加对现代数据访问方法和NoSQL数据库的支持,以允许AI利用更广泛的企业数据集来应用预测性业务洞察。
其他可以从Spyre加速器中受益的系统包括最新的LinuxONE型号,它由与z17相同的Telum II处理器驱动,但仅运行Linux;以及Power11系统如Power E1180,可配置多达256个核心。
Q&A
Q1:IBM Spyre加速器是什么?有什么用途?
A:IBM Spyre加速器是专门为处理AI需求而构建的硬件加速器,基于配备32个独立加速器核心的定制芯片PCIe卡。它主要用于为IBM的企业级系统提供AI处理能力,包括欺诈检测、生成式AI和大语言模型处理等工作负载。
Q2:Spyre加速器支持哪些IBM系统?何时发布?
A:Spyre加速器支持IBM z17大型机、LinuxONE 5和Power11系统。对于z17和LinuxONE 5系统,将于10月28日正式发布;对于Power11服务器,将在12月初发布。
Q3:Spyre加速器可以配置多少张卡?
A:根据不同系统有不同配置:在IBM Z或LinuxONE系统中可以配置多达48张Spyre卡的集群,而在Power系统中可以配置多达16张卡,以满足客户对AI处理能力的扩展需求。
好文章,需要你的鼓励
这项由索非亚大学INSAIT和苏黎世联邦理工学院共同完成的研究,揭示了大语言模型在数学定理证明中普遍存在的"迎合性"问题。研究团队构建了BrokenMath基准测试集,包含504道精心设计的错误数学命题,用于评估主流AI模型能否识别并纠正错误陈述。
约翰斯·霍普金斯大学研究团队提出了创新的隐私保护AI文本生成方法,通过"控制代码"系统指导AI生成虚假敏感信息来替代真实数据。该方法采用"藏身于众"策略,在医疗法律等敏感领域测试中实现了接近零的隐私泄露率,同时保持了高质量的文本生成效果,为高风险领域的AI应用提供了实用的隐私保护解决方案。
实验室和真实使用测试显示,iPhone Air电池续航能够满足一整天的典型使用需求。在CNET进行的三小时视频流媒体压力测试中,iPhone Air仅消耗15%电量,表现与iPhone 15相当。在45分钟高强度使用测试中表现稍逊,但在实际日常使用场景下,用户反馈iPhone Air能够稳定支撑全天使用,有线充电速度也比较理想。
这项由Reactive AI提出的稀疏查询注意力机制通过减少查询头数量而非键值头数量,直接降低了注意力层的计算复杂度,实现了2-3倍的训练和编码加速。该方法在长序列处理中表现出色,在20万词汇序列上达到3.5倍加速,且模型质量损失微乎其微,为计算密集型AI应用提供了新的优化路径。