关于新芯片的详细信息是在本周斯坦福大学举行的“Hot Chips 2024 ”活动上公布的。该公司表示,其增强的处理能力将有助于使用一种被称为“集合人工智能”的新技术加速传统的人工智能模型和新兴的大型语言模型。
IBM Telum II 处理器(如图)的显著特点是采用了全新的数据处理单元(DPU),用于卸载某些计算任务,提高芯片的整体计算效率。据该公司表示,新的DPU旨在加速该公司大型机系统上用于联网和存储的复杂输入/输出协议。
除了这款新芯片,该公司还提供了全新IBM Spyre Accelerator的详细信息,该加速器旨在与 Telum 芯片配合使用,为人工智能工作负载提供额外的动力。
下一代大型机的主力
IBM承诺在今年晚些时候推出下一代大型机时,将大幅提升整体计算性能。新的Telum 芯片采用三星代工厂最先进的5纳米工艺制造,将成为新款IBM Z大型机的核心,提供更高的频率和内存容量,使其缓存和集成AI 加速器核心性能提高40%。
IBM表示,更深入地说,新芯片是2021年首次亮相的初代Telum 处理器的后继产品,具有八个高性能内核,运行频率为5.5千兆赫兹,每个内核具有36MB内存。这相当于片上缓存容量增加了40%,总容量达到360MB。
此外,Telum II芯片还配备了增强型集成人工智能加速器,可进行低延迟、高吞吐量的交易中人工智能推理操作,使其更适用于金融交易中的实时欺诈检测等应用。
同时,集成的I/O Acceleration Unit DPU将显著提高芯片的数据处理能力,IBM承诺将整体 I/O 密度提高50%。
加速人工智能
至于 Spyre Accelerator(如右图所示),这是一款专用的企业级加速器,专为希望使用大型机系统进行人工智能处理的客户而设计。IBM 表示,它旨在提升最复杂的人工智能模型(包括生成式人工智能应用)的性能。
为此,它内置了1 TB 的内存,这些内存分布在一个常规I/O抽屉中的8块卡上。它有32个计算内核,支持int4、int8、fp8 和 fp16 数据类型,能够为任何类型的人工智能应用减少延迟并提高吞吐量。
IBM 解释说,Telum II和Spyre的设计目的是协同工作,为人工智能建模的集合方法提供可扩展的架构。集合方法涉及将多个机器学习和深度学习人工智能模型与编码器LLM结合。通过利用每个模型架构的优势,集合模型可以提供比单独使用单一类型模型更准确的结果。
IBM负责IBM Z和LinuxONE产品管理的副总裁Tina Tarquinio表示,在努力满足人工智能不断升级的需求时,新芯片使公司能够保持“领先优势”。她承诺说:“Telum II 处理器和 Spyre 加速器旨在提供高性能、安全和更省电的企业计算解决方案。”
用例
该公司表示,Telum II 适用于一系列专门的人工智能应用,这些应用传统上由其Z大型机系统提供支持。例如,该公司表示,人工智能的集合方法尤其适用于加强保险欺诈检测。这些芯片还可以支持洗钱检测系统,为先进的算法提供动力,实时发现可疑的金融活动,降低金融犯罪风险。
此外,据说Telum II还是生成式人工智能助手的理想基础,可支持知识转移和代码解释等必要任务。
该公司表示,Telum II 芯片将在今年晚些时候推出的下一版IBM Z大型机和IBM LinuxONE系统中首次亮相。
好文章,需要你的鼓励
研究人员正探索AI能否预测昏迷患者的医疗意愿,帮助医生做出生死决策。华盛顿大学研究员Ahmad正推进首个AI代理人试点项目,通过分析患者医疗数据预测其偏好。虽然准确率可达三分之二,但专家担心AI无法捕捉患者价值观的复杂性和动态变化。医生强调AI只能作为辅助工具,不应替代人类代理人,因为生死决策依赖具体情境且充满伦理挑战。
哥伦比亚大学研究团队开发了MathBode动态诊断工具,通过让数学题参数按正弦波变化来测试AI的动态推理能力。研究发现传统静态测试掩盖了AI的重要缺陷:几乎所有模型都表现出低通滤波特征和相位滞后现象,即在处理快速变化时会出现失真和延迟。该方法覆盖五个数学家族的测试,为AI模型选择和部署提供了新的评估维度。
麻省理工学院研究发现过度依赖AI会导致认知债务,削弱基本思维能力。研究表明交替进行无辅助思考和AI支持工作的模式能保持认知敏锐度。这种认知高强度间歇训练模仿体能训练中的HIIT模式,通过短时间高强度思考与恢复期交替进行,可以强化大脑神经回路,防止认知衰退,提升独立思考能力。
这项研究首次发现AI推理模型存在"雪球效应"问题——推理过程中的小错误会逐步放大,导致AI要么给出危险回答,要么过度拒绝正常请求。研究团队提出AdvChain方法,通过训练AI学习"错误-纠正"过程来获得自我纠错能力。实验显示该方法显著提升了AI的安全性和实用性,用1000个样本达到了传统方法15000个样本的效果,为AI安全训练开辟了新方向。