今天IBM在Hot Chips大会上展示了一款新的芯片,该芯片可以实时对企业工作负载执行深度学习预测以解决欺诈问题。

这个名为“Telum”的芯片,是IBM首款采用针对AI推理的片上加速(或者是在交易处理过程中利用数据进行预测的过程)功能的处理器。IBM表示,该处理器可以为运行银行、金融、交易和保险工作负载以及客户交互的新一代大型机提供动力。
IBM称,Telum开发工作已经持续了三年时间,首款Telum的系统将于2022年推出。
Telum将让应用能够在靠近所使用数据的位置高效运行于云端,这就避免了需要大量资源用于内存和数据迁移以实时处理推理负载。
IBM表示,让AI加速更靠近数据,这个特性让企业能够对敏感交易进行实时的、大容量的推理,而无需求助于那些可能会影响性能的平台外AI工具。客户仍然可以在平台外构建和训练AI模型,然后在IBM Telum系统上部署剩下的部分用于实时工作负载分析。
IBM表示,Telum的关键优势在于,客户可以在不影响SLA的情况下,把关注点从检测欺诈转向预防欺诈。
Moor Insights & Strategy分析师Patrick Moorhead表示,有两种场景是把推理直接内嵌到工作负载中,会产生变革性的影响。
“首先是利用AI对业务数据进行分析以获得洞察力,例如信用卡交易欺诈检测、客户行为预测或者是供应链优化,”Moorhead解释说。
他表示,这样就可以在交易完成之前检测到欺诈交易行为,而平台外AI系统是不可能做到这一点的,因为将数据转移到系统外不可避免地会遇到网络延迟问题,从而导致交易速度慢得令人无法接受。
他说:“在平台之外你需要将数据从Z迁移到另一个平台上,而且需要延迟很低才能够持续地处理每笔交易。随着延迟的激增,有些交易就无法得到检查处理,有些客户的交易处理完成率只有70%,剩下30%的交易都没有得到保护。”
IBM表示,目前IBM正在与一家未透露名称的国际银行展开合作,使其能够检测出信用卡交易授权处理过程中可能存在的欺诈行为,该客户的目标是在保持每秒处理多达100,000次交易,同时还能够实现亚毫秒级响应时间,而这是利用现有交易处理基础设施所能实现的近10倍之多。
IBM工程师Christian Jacobi和Elpida Tzortzatos在一篇博文中解释说:“客户想要一致且可靠的推理响应时间,以毫秒级低延迟来检查每笔交易是否存在欺诈行为。Telum旨在帮助满足此类具有挑战性的要求,特别是在大规模运行组合交易和AI工作负载方面。”
而另一个片上推理可能带来的好处是使用AI让基础设施变得更加智能,例如,工作负载放置、安全异常检测、或者基于AI模型的数据库查询计划等等。
IBM表示,Telum芯片采用了三星的7纳米制程工艺,其中包含了8个处理器内核,具有深度的超标量乱序指令流水线,5 GHz的云频率,并针对异构企业级工作负载需求进行了优化。
IBM表示,Telum采用了一个全新设计的缓存和芯片互连基础设施,每个核心配置了32MB缓存,能够纵向扩展到32个Telum芯片。
好文章,需要你的鼓励
很多人担心被AI取代,陷入无意义感。按照杨元庆的思路,其实无论是模型的打造者,还是模型的使用者,都不该把AI放在人的对立面。
MIT研究团队提出递归语言模型(RLM),通过将长文本存储在外部编程环境中,让AI能够编写代码来探索和分解文本,并递归调用自身处理子任务。该方法成功处理了比传统模型大两个数量级的文本长度,在多项长文本任务上显著优于现有方法,同时保持了相当的成本效率,为AI处理超长文本提供了全新解决方案。
谷歌宣布对Gmail进行重大升级,全面集成Gemini AI功能,将其转变为"个人主动式收件箱助手"。新功能包括AI收件箱视图,可按优先级自动分组邮件;"帮我快速了解"功能提供邮件活动摘要;扩展"帮我写邮件"工具至所有用户;支持复杂问题查询如"我的航班何时降落"。部分功能免费提供,高级功能需付费订阅。谷歌强调用户数据安全,邮件内容不会用于训练公共AI模型。
华为研究团队推出SWE-Lego框架,通过混合数据集、改进监督学习和测试时扩展三大创新,让8B参数AI模型在代码自动修复任务上击败32B对手。该系统在SWE-bench Verified测试中达到42.2%成功率,加上扩展技术后提升至49.6%,证明了精巧方法设计胜过简单规模扩展的技术理念。