IBM Research称,已经开发出了一种内存计算新方法,可以为微软和谷歌寻求的高性能和机器学习应用的硬件加速器提供答案。
在今天Nature Electronics期刊上发表的一篇论文中,IBM研究人员描述了这种新的“混合精度内存计算”方法。
IBM关注传统计算体系结构的不同看法,在这种体系结构中,软件需要在单独的CPU和RAM单元之间进行数据传输。
据IBM称,这种被称为“冯诺依曼”的体系结构设计,为数据分析和机器学习应用制造了一个瓶颈,这些应用需要在处理单元和内存单元之间进行更大的数据传输。传输数据也是一个耗能的过程。
应对这一挑战,IBM给出的一种方法是模拟相变内存(PCM)芯片,该芯片目前还处于原型阶段,500万个纳米级PCM器件组成500×2000交叉阵列。
PCM的一个关键优势是可以处理大多数密集型数据处理,而无需将数据传输到CPU或GPU,这样以更低的能量开销实现更快速的处理。
IBM的PCM单元将作为CPU加速器,就像微软用于加速Bing和加强机器学习的FPGA芯片一样。
据IBM称,研究表明在某些情况下,其PCM芯片能够以模拟的方式进行操作,执行计算任务,并提供与4位FPGA存储器芯片相当的准确度,但能耗降低了80倍。
模拟PCM硬件并不适合高精度计算。所幸的是,数字型CPU和GPU是适合的,IBM认为混合架构可以实现更高性能、更高效率和更高精度的平衡。
这种设计将大部分处理留给内存,然后将较轻的负载交给CPU进行一系列的精度修正。
根据IBM苏黎世实验室的电气工程师、也是该论文的主要作者Manuel Le Gallo称,这种设计有助于云中的认知计算,有助于释放对高性能计算机的访问。
Le Gallo表示:“凭借我们现在的精确度,我们可以将能耗降低到是使用高精度GPU和CPU的1/6。”
“所以我们的想法是,为了应对模拟计算中的不精确性,我们将其与标准处理器结合起来。我们要做的是将大量计算任务转移到PCM中,但同时得到最终的结果是精确的。”
这种技术更适合于如数字图像识别等应用,其中误解少数像素并不会妨碍整体识别,此外还有一些医疗应用。
“你可以用低精度完成大量计算——以模拟的方式,PCM会非常节能——然后使用传统处理器来提高精度。”
对于只有1兆字节大小的IBM原型内存芯片,现在还处于初期阶段。为了适用于现代数据中心的规模化应用,它需要达到千兆字节的内存量级,分布在数万亿个PCM中。
尽管如此,IBM认为可以通过构建更大规模的PCM设备或使其中PCM并行运行来实现这一目标。
好文章,需要你的鼓励
本文探讨如何使用生成式AI和大语言模型作为倾听者,帮助用户表达内心想法。许多主流AI如ChatGPT、Claude等被设计成用户的"最佳伙伴",或试图提供心理健康建议,但有时用户只想要一个尊重的倾听者。文章提供了有效的提示词技巧,指导AI保持中性、尊重的态度,专注于倾听和理解,而非给出建议或判断。同时提醒用户注意隐私保护和AI的局限性。
北京大学团队开发出WoW世界模型,这是首个真正理解物理规律的AI系统。通过200万机器人互动数据训练,WoW不仅能生成逼真视频,更能理解重力、碰撞等物理定律。其创新的SOPHIA框架让AI具备自我纠错能力,在物理理解测试中达到80.16%准确率。该技术将推动智能机器人、视频制作等领域发展,为通用人工智能奠定重要基础。
人工通用智能和超级人工智能的出现,可能会创造出一种全新的外星智能形态。传统AI基于人类智能模式构建,但AGI和ASI一旦存在,可能会选择创造完全不同于人类认知方式的新型智能。这种外星人工智能既可能带来突破性进展,如找到癌症治愈方法,也可能存在未知风险。目前尚不确定这种新智能形态是否会超越人类智能,以及我们是否应该追求这一可能改变人类命运的技术突破。
香港大学和蚂蚁集团联合推出PromptCoT 2.0,这是一种让AI自动生成高质量训练题目的创新方法。通过"概念-思路-题目"的三步策略,AI能像老师备课一样先构思解题思路再出题,大幅提升了题目质量和训练效果。实验显示该方法在数学竞赛和编程任务上都取得了显著提升,为解决AI训练数据稀缺问题提供了新思路。