关于新芯片的详细信息是在本周斯坦福大学举行的“Hot Chips 2024 ”活动上公布的。该公司表示,其增强的处理能力将有助于使用一种被称为“集合人工智能”的新技术加速传统的人工智能模型和新兴的大型语言模型。
IBM Telum II 处理器(如图)的显著特点是采用了全新的数据处理单元(DPU),用于卸载某些计算任务,提高芯片的整体计算效率。据该公司表示,新的DPU旨在加速该公司大型机系统上用于联网和存储的复杂输入/输出协议。
除了这款新芯片,该公司还提供了全新IBM Spyre Accelerator的详细信息,该加速器旨在与 Telum 芯片配合使用,为人工智能工作负载提供额外的动力。
下一代大型机的主力
IBM承诺在今年晚些时候推出下一代大型机时,将大幅提升整体计算性能。新的Telum 芯片采用三星代工厂最先进的5纳米工艺制造,将成为新款IBM Z大型机的核心,提供更高的频率和内存容量,使其缓存和集成AI 加速器核心性能提高40%。
IBM表示,更深入地说,新芯片是2021年首次亮相的初代Telum 处理器的后继产品,具有八个高性能内核,运行频率为5.5千兆赫兹,每个内核具有36MB内存。这相当于片上缓存容量增加了40%,总容量达到360MB。
此外,Telum II芯片还配备了增强型集成人工智能加速器,可进行低延迟、高吞吐量的交易中人工智能推理操作,使其更适用于金融交易中的实时欺诈检测等应用。
同时,集成的I/O Acceleration Unit DPU将显著提高芯片的数据处理能力,IBM承诺将整体 I/O 密度提高50%。
加速人工智能
至于 Spyre Accelerator(如右图所示),这是一款专用的企业级加速器,专为希望使用大型机系统进行人工智能处理的客户而设计。IBM 表示,它旨在提升最复杂的人工智能模型(包括生成式人工智能应用)的性能。
为此,它内置了1 TB 的内存,这些内存分布在一个常规I/O抽屉中的8块卡上。它有32个计算内核,支持int4、int8、fp8 和 fp16 数据类型,能够为任何类型的人工智能应用减少延迟并提高吞吐量。
IBM 解释说,Telum II和Spyre的设计目的是协同工作,为人工智能建模的集合方法提供可扩展的架构。集合方法涉及将多个机器学习和深度学习人工智能模型与编码器LLM结合。通过利用每个模型架构的优势,集合模型可以提供比单独使用单一类型模型更准确的结果。
IBM负责IBM Z和LinuxONE产品管理的副总裁Tina Tarquinio表示,在努力满足人工智能不断升级的需求时,新芯片使公司能够保持“领先优势”。她承诺说:“Telum II 处理器和 Spyre 加速器旨在提供高性能、安全和更省电的企业计算解决方案。”
用例
该公司表示,Telum II 适用于一系列专门的人工智能应用,这些应用传统上由其Z大型机系统提供支持。例如,该公司表示,人工智能的集合方法尤其适用于加强保险欺诈检测。这些芯片还可以支持洗钱检测系统,为先进的算法提供动力,实时发现可疑的金融活动,降低金融犯罪风险。
此外,据说Telum II还是生成式人工智能助手的理想基础,可支持知识转移和代码解释等必要任务。
该公司表示,Telum II 芯片将在今年晚些时候推出的下一版IBM Z大型机和IBM LinuxONE系统中首次亮相。
好文章,需要你的鼓励
DeepSeek 的 AI 模型在处理效率方面取得重大突破,可能对数据中心产生深远影响。尽管引发了科技股抛售,但业内专家认为,这项创新将推动 AI 应用普及,促进大规模和分布式数据中心基础设施需求增长。更高效的 AI 算法有望降低成本、扩大应用范围,从而加速数据中心行业发展。
Rivian 正全面推进 AI 技术整合,开发下一代电动车平台,以挑战特斯拉的市场地位。公司计划于 2025 年实现免手驾驶,2026 年达到 L3 级自动驾驶。Rivian 还将在车载系统中广泛应用 AI 技术,提供语音交互等功能,并计划推出更实惠的车型,扩大市场份额。
Postman 发布了 AI 代理构建器,这是一款创新的生成式 AI 工具。它允许开发者通过整合大语言模型、API 和工作流程来设计、构建、测试和部署智能代理。这一工具旨在简化 API 交互、优化工作流程,并支持创建能执行复杂任务的智能代理,标志着 API 优先的 AI 开发迈出了重要一步。
微软第二财季利润同比增长10%,人工智能年化收入达130亿美元。然而,云计算业务未达预期,下季度指引不及预期,导致盘后股价下跌。公司资本支出创新高,以满足AI和云需求。尽管Azure增长放缓,但微软对下半年增速加快持乐观态度。同时,中国AI初创公司DeepSeek的崛起引发业界对AI基础设施投资的重新审视。