今天IBM在Hot Chips大会上展示了一款新的芯片,该芯片可以实时对企业工作负载执行深度学习预测以解决欺诈问题。
这个名为“Telum”的芯片,是IBM首款采用针对AI推理的片上加速(或者是在交易处理过程中利用数据进行预测的过程)功能的处理器。IBM表示,该处理器可以为运行银行、金融、交易和保险工作负载以及客户交互的新一代大型机提供动力。
IBM称,Telum开发工作已经持续了三年时间,首款Telum的系统将于2022年推出。
Telum将让应用能够在靠近所使用数据的位置高效运行于云端,这就避免了需要大量资源用于内存和数据迁移以实时处理推理负载。
IBM表示,让AI加速更靠近数据,这个特性让企业能够对敏感交易进行实时的、大容量的推理,而无需求助于那些可能会影响性能的平台外AI工具。客户仍然可以在平台外构建和训练AI模型,然后在IBM Telum系统上部署剩下的部分用于实时工作负载分析。
IBM表示,Telum的关键优势在于,客户可以在不影响SLA的情况下,把关注点从检测欺诈转向预防欺诈。
Moor Insights & Strategy分析师Patrick Moorhead表示,有两种场景是把推理直接内嵌到工作负载中,会产生变革性的影响。
“首先是利用AI对业务数据进行分析以获得洞察力,例如信用卡交易欺诈检测、客户行为预测或者是供应链优化,”Moorhead解释说。
他表示,这样就可以在交易完成之前检测到欺诈交易行为,而平台外AI系统是不可能做到这一点的,因为将数据转移到系统外不可避免地会遇到网络延迟问题,从而导致交易速度慢得令人无法接受。
他说:“在平台之外你需要将数据从Z迁移到另一个平台上,而且需要延迟很低才能够持续地处理每笔交易。随着延迟的激增,有些交易就无法得到检查处理,有些客户的交易处理完成率只有70%,剩下30%的交易都没有得到保护。”
IBM表示,目前IBM正在与一家未透露名称的国际银行展开合作,使其能够检测出信用卡交易授权处理过程中可能存在的欺诈行为,该客户的目标是在保持每秒处理多达100,000次交易,同时还能够实现亚毫秒级响应时间,而这是利用现有交易处理基础设施所能实现的近10倍之多。
IBM工程师Christian Jacobi和Elpida Tzortzatos在一篇博文中解释说:“客户想要一致且可靠的推理响应时间,以毫秒级低延迟来检查每笔交易是否存在欺诈行为。Telum旨在帮助满足此类具有挑战性的要求,特别是在大规模运行组合交易和AI工作负载方面。”
而另一个片上推理可能带来的好处是使用AI让基础设施变得更加智能,例如,工作负载放置、安全异常检测、或者基于AI模型的数据库查询计划等等。
IBM表示,Telum芯片采用了三星的7纳米制程工艺,其中包含了8个处理器内核,具有深度的超标量乱序指令流水线,5 GHz的云频率,并针对异构企业级工作负载需求进行了优化。
IBM表示,Telum采用了一个全新设计的缓存和芯片互连基础设施,每个核心配置了32MB缓存,能够纵向扩展到32个Telum芯片。
好文章,需要你的鼓励
Postman 发布了 AI 代理构建器,这是一款创新的生成式 AI 工具。它允许开发者通过整合大语言模型、API 和工作流程来设计、构建、测试和部署智能代理。这一工具旨在简化 API 交互、优化工作流程,并支持创建能执行复杂任务的智能代理,标志着 API 优先的 AI 开发迈出了重要一步。
微软第二财季利润同比增长10%,人工智能年化收入达130亿美元。然而,云计算业务未达预期,下季度指引不及预期,导致盘后股价下跌。公司资本支出创新高,以满足AI和云需求。尽管Azure增长放缓,但微软对下半年增速加快持乐观态度。同时,中国AI初创公司DeepSeek的崛起引发业界对AI基础设施投资的重新审视。
IBM第四季度业绩亮眼,利润超预期,2025年展望乐观。收入增长2%至175.6亿美元,每股收益3.92美元超分析师预期。Red Hat和AI业务表现出色,软件业务增长强劲。公司预计2024年收入增长超5%,自由现金流增至130亿美元。市场对IBM战略转型和盈利能力改善反应积极,盘后股价大涨近9%。
加拿大滑铁卢大学研究人员发现,通过对 Linux 内核网络栈的微小调整,可显著提升数据中心效率。这项改进引入了自适应轮询机制,在高流量时提高吞吐量,低流量时节省能源。该补丁已纳入 Linux 6.13 内核,有望为数据中心带来可观的性能提升和能耗降低。