专访 AI 芯片初创公司 EnCharge 声称其模拟人工智能加速器性能可以媲美桌面 GPU,但功耗仅为后者的一小部分。这在理论上令人印象深刻,现在面临的难题是:在现实世界中证明这一点。
该公司声称已开发出一种用于 AI 推理的新型内存计算架构,用模拟电容器替代传统晶体管,与 GPU 等数字加速器相比,每瓦性能提高了 20 倍。
根据 CEO Naveen Verma 的说法,EnCharge 的推理芯片在仅消耗 1 瓦功率的情况下,就能在 8 位精度下提供 150 TOPS 的 AI 算力。如果将功耗提高到 4.5 瓦,Verma 声称其性能可以媲美桌面 GPU,但功耗仅为后者的百分之一。至少,这是他们的宣传。
然而,这并非纯理论。EnCharge 的芯片源自 Verma 在普林斯顿大学的实验室,得到了美国国防高级研究计划局 (DARPA) 和台湾芯片制造巨头 TSMC 的支持。Verma 告诉我们,该公司已经流片了几个测试芯片来证明该架构的可行性。
"我们正在开发的产品实际上是基于我的研究实验室开发的一项基础技术,"他说,"我们确实有机会从根本上研究 AI 计算面临的挑战。"
在获得了来自 Tiger Global、RTX 等投资者的 1 亿美元 B 轮融资后,EnCharge 计划在今年晚些时候流片首批面向移动设备、PC 和工作站的量产芯片。
Verma 表示,真正的区别在于芯片如何以及在哪里进行计算。如今,绝大多数生成式 AI 计算都是使用大量乘累加单元 (MAC) 完成的。
在传统架构中,这些单元由数十亿个晶体管门电路构成,由于数字是用二进制的 1 和 0 表示的,所以最终只能处理离散值。Verma 认为这种方法可以改进,通过使用连续值而不是离散值,可以提高效率和精度。
因此,EnCharge 的 MAC 单元采用模拟电容器构建,可以根据其电荷水平表示任意连续信号值。而且由于电容器基本上就是由两个导体被介电材料分隔开,因此可以使用现有的 CMOS 技术轻松地蚀刻到硅片中,Verma 说。
EnCharge 设计的第二个要素是在内存中进行模拟计算。
内存计算并不是一个新概念。多年来,已经有几家公司在努力将基于这一概念的 AI 加速器商业化。这个概念的核心思想是,通过将计算(通常是大量数学电路)嵌入到内存中,可以直接在原地计算矩阵,而不需要移动数据。
在 EnCharge 的设计中,模拟电容器现在负责通过累加电荷来执行这种计算。
"当你驱动这些电容器中的任何一个时,耦合的电容线的输出基本上会达到信号的平均值,"他说,"平均值就是一种累加。它应该根据你平均的项数进行归一化。"
实现这一点花费了八年的研究和开发时间,不仅包括开发内存模拟矩阵累加单元,还包括使其可编程所需的所有其他内容。
"我们认识到,当你有这些基础技术突破时,还必须构建完整的架构,并开发所有软件,"Verma 说。
说到可编程性,EnCharge 的芯片支持各种 AI 工作负载,从卷积神经网络到支持大语言模型和扩散模型的 Transformer 架构。
作为推理芯片,其设计会根据目标工作负载而变化。对于某些工作负载,内存容量和带宽等因素可能比原始计算能力对性能的影响更大。
例如,大语言模型往往受内存限制,内存容量和带宽对感知性能的影响往往比它能产生的 TOPS 数量更大。因此,Verma 说,针对这类工作负载的 EnCharge 芯片可能会减少用于计算的芯片面积,以便为更大的内存总线腾出空间。
相反,对于扩散模型这样不太受内存限制的应用,你可能需要更多的计算能力来更快地生成图像。
目前,考虑到易于采用,EnCharge 坚持使用 M.2 或 PCIe 插卡形式。我们之前见过采用这种形式的低功耗加速器,如 Google 的 Coral TPU 和 Hailo 的 NPU。
从长远来看,这项技术可以适应更大、更高功率的应用,Verma 说。"从根本上说,扩展到 75 瓦 PCIe 卡等产品的能力都是具备的。"
首批 EnCharge 量产芯片预计将在今年晚些时候流片,不过他指出,在初创公司努力将芯片集成到客户设计中并建立软件管道的过程中,还需要一段时间才能广泛采用。
好文章,需要你的鼓励
继苹果和其他厂商之后,Google正在加大力度推广其在智能手机上的人工智能功能。该公司试图通过展示AI在移动设备上的实用性和创新性来吸引消费者关注,希望说服用户相信手机AI功能的价值。Google面临的挑战是如何让消费者真正体验到AI带来的便利,并将这些技术优势转化为市场竞争力。
麻省理工学院研究团队发现大语言模型"幻觉"现象的新根源:注意力机制存在固有缺陷。研究通过理论分析和实验证明,即使在理想条件下,注意力机制在处理多步推理任务时也会出现系统性错误。这一发现挑战了仅通过扩大模型规模就能解决所有问题的观点,为未来AI架构发展指明新方向,提醒用户在复杂推理任务中谨慎使用AI工具。
Meta为Facebook和Instagram推出全新AI翻译工具,可实时将用户生成内容转换为其他语言。该功能在2024年Meta Connect大会上宣布,旨在打破语言壁垒,让视频和短视频内容触达更广泛的国际受众。目前支持英语和西班牙语互译,后续将增加更多语言。创作者还可使用AI唇形同步功能,创造无缝的口型匹配效果,并可通过创作者控制面板随时关闭该功能。
中科院自动化所等机构联合发布MM-RLHF研究,构建了史上最大的多模态AI对齐数据集,包含12万个精细人工标注样本。研究提出批评式奖励模型和动态奖励缩放算法,显著提升多模态AI的安全性和对话能力,为构建真正符合人类价值观的AI系统提供了突破性解决方案。