本周在IEEE国际电子元件会议上,IBM研究院(IBM Research)公布了在“计算内存架构”方面所取得的一项突破性成果,该架构可以为混合云平台中的人工智能计算工作负载实现卓越的性能水平。
研究人员开发出了号称第一个嵌入式磁阻随机存取存储器(Magnetoresistive Random-Access Memory)技术,采用14纳米架构,并称其是Spin Transfer Torque MRAM(STT-MRAM),这一新架构有助于解决数据密集型混合云和AI工作负载中的关键内存瓶颈。
IBM在博客文章中表示,随着企业将那些要求最苛刻的工作负载迁移到混合云平台,他们将面临“计算内存瓶颈”的问题,这是由于系统中处理器比现有内存系统速度快得多而导致内存短缺的问题。
IBM表示,这种新型STT-MRAM架构可以解决内存和处理器之间的瓶颈,实现更高的内存性能。
STT-MRAM利用电子自旋将数据存储在磁畴中,并将静态RAM的高速度与传统DRAM的更高密度结合在一起,从而提供了一种更可靠的内存架构。IBM表示,最后一级CPU缓存中部署STT-MRAM,将可以减少数据密集型工作负载所需的内存读写操作,从而降低系统延迟和功耗,同时增加带宽。
IBM在今日发表的白皮书中称,这项14纳米嵌入式STT-MRAM CMOS技术是有史以来最先进的MRAM系统,将为混合云中的AI工作负载提供一个“效率更高、性能更高的系统”。
IBM在另外一份白皮书详细介绍了这个新型架构所使用的高级磁性材料,这种材料让STT-MRAM系统具有更高的密度,存储量是原来的两倍,从而大大提高了数据恢复性能。
IBM还透露了有关“模拟内存计算”研究的最新信息,这种技术将计算和内存结合到单一设备中,用于处理要求更为苛刻的AI工作负载。IBM说,这种专有硬件可以用于训练越来越复杂的AI模型,能效大幅提升。
打造用于AI的专用模拟内存计算硬件,面对的挑战之一,就是“突触权重映射问题”。突触权重用于指示神经网络中两个节点之间的连接强度,需要将其精确地映射到模拟非易失性内存设备上,以实现深度学习推理,但做到这一点面临巨大挑战,IBM说.
IBM在第一份题为《相变内存设备中进行深度学习推理编程的突触权重精确度》白皮书中讨论了依赖于脉冲编码调制的、基于模拟电阻的存储设备如何用于解决这一映射难题,并描述了一种通过分析和通过阵列级实验准确映射突触权重的方法。
在另外一份题为《“无辅助的真实模拟神经网络训练芯片》的白皮书描述了IBM模拟神经网络芯片的概念,其本质上是一种“电阻处理单元”(RPU),具有出色的实时性能,堪比同类的数字系统,从而在运行AI推理时可实现承诺的“模拟优势”。
好文章,需要你的鼓励
腾讯今日开源混元MT系列语言模型,专门针对翻译任务进行优化。该系列包含四个模型,其中两个旗舰模型均拥有70亿参数。腾讯使用四个不同数据集进行初始训练,并采用强化学习进行优化。在WMT25基准测试中,混元MT在31个语言对中的30个表现优于谷歌翻译,某些情况下得分高出65%,同时也超越了GPT-4.1和Claude 4 Sonnet等模型。
腾讯ARC实验室推出AudioStory系统,首次实现AI根据复杂指令创作完整长篇音频故事。该系统结合大语言模型的叙事推理能力与音频生成技术,通过交错式推理生成、解耦桥接机制和渐进式训练,能够将复杂指令分解为连续音频场景并保持整体连贯性。在AudioStory-10K基准测试中表现优异,为AI音频创作开辟新方向。
今年是Frontiers Health十周年。在pharmaphorum播客的Frontiers Health限定系列中,网络编辑Nicole Raleigh采访了Startup Health总裁兼联合创始人Unity Stoakes。Stoakes在科技、科学和设计交汇领域深耕30多年,致力于变革全球健康。他认为,Frontiers Health通过精心选择的空间促进有意义的网络建设,利用网络效应推进创新力量,让企业家共同构建并带来改变,从而有益地影响全球人类福祉。
Meta与特拉维夫大学联合研发的VideoJAM技术,通过让AI同时学习外观和运动信息,显著解决了当前视频生成模型中动作不连贯、违反物理定律的核心问题。该技术仅需添加两个线性层就能大幅提升运动质量,在多项测试中超越包括Sora在内的商业模型,为AI视频生成的实用化应用奠定了重要基础。