专访 AI 芯片初创公司 EnCharge 声称其模拟人工智能加速器性能可以媲美桌面 GPU,但功耗仅为后者的一小部分。这在理论上令人印象深刻,现在面临的难题是:在现实世界中证明这一点。
该公司声称已开发出一种用于 AI 推理的新型内存计算架构,用模拟电容器替代传统晶体管,与 GPU 等数字加速器相比,每瓦性能提高了 20 倍。
根据 CEO Naveen Verma 的说法,EnCharge 的推理芯片在仅消耗 1 瓦功率的情况下,就能在 8 位精度下提供 150 TOPS 的 AI 算力。如果将功耗提高到 4.5 瓦,Verma 声称其性能可以媲美桌面 GPU,但功耗仅为后者的百分之一。至少,这是他们的宣传。
然而,这并非纯理论。EnCharge 的芯片源自 Verma 在普林斯顿大学的实验室,得到了美国国防高级研究计划局 (DARPA) 和台湾芯片制造巨头 TSMC 的支持。Verma 告诉我们,该公司已经流片了几个测试芯片来证明该架构的可行性。
"我们正在开发的产品实际上是基于我的研究实验室开发的一项基础技术,"他说,"我们确实有机会从根本上研究 AI 计算面临的挑战。"
在获得了来自 Tiger Global、RTX 等投资者的 1 亿美元 B 轮融资后,EnCharge 计划在今年晚些时候流片首批面向移动设备、PC 和工作站的量产芯片。
Verma 表示,真正的区别在于芯片如何以及在哪里进行计算。如今,绝大多数生成式 AI 计算都是使用大量乘累加单元 (MAC) 完成的。
在传统架构中,这些单元由数十亿个晶体管门电路构成,由于数字是用二进制的 1 和 0 表示的,所以最终只能处理离散值。Verma 认为这种方法可以改进,通过使用连续值而不是离散值,可以提高效率和精度。
因此,EnCharge 的 MAC 单元采用模拟电容器构建,可以根据其电荷水平表示任意连续信号值。而且由于电容器基本上就是由两个导体被介电材料分隔开,因此可以使用现有的 CMOS 技术轻松地蚀刻到硅片中,Verma 说。
EnCharge 设计的第二个要素是在内存中进行模拟计算。
内存计算并不是一个新概念。多年来,已经有几家公司在努力将基于这一概念的 AI 加速器商业化。这个概念的核心思想是,通过将计算(通常是大量数学电路)嵌入到内存中,可以直接在原地计算矩阵,而不需要移动数据。
在 EnCharge 的设计中,模拟电容器现在负责通过累加电荷来执行这种计算。
"当你驱动这些电容器中的任何一个时,耦合的电容线的输出基本上会达到信号的平均值,"他说,"平均值就是一种累加。它应该根据你平均的项数进行归一化。"
实现这一点花费了八年的研究和开发时间,不仅包括开发内存模拟矩阵累加单元,还包括使其可编程所需的所有其他内容。
"我们认识到,当你有这些基础技术突破时,还必须构建完整的架构,并开发所有软件,"Verma 说。
说到可编程性,EnCharge 的芯片支持各种 AI 工作负载,从卷积神经网络到支持大语言模型和扩散模型的 Transformer 架构。
作为推理芯片,其设计会根据目标工作负载而变化。对于某些工作负载,内存容量和带宽等因素可能比原始计算能力对性能的影响更大。
例如,大语言模型往往受内存限制,内存容量和带宽对感知性能的影响往往比它能产生的 TOPS 数量更大。因此,Verma 说,针对这类工作负载的 EnCharge 芯片可能会减少用于计算的芯片面积,以便为更大的内存总线腾出空间。
相反,对于扩散模型这样不太受内存限制的应用,你可能需要更多的计算能力来更快地生成图像。
目前,考虑到易于采用,EnCharge 坚持使用 M.2 或 PCIe 插卡形式。我们之前见过采用这种形式的低功耗加速器,如 Google 的 Coral TPU 和 Hailo 的 NPU。
从长远来看,这项技术可以适应更大、更高功率的应用,Verma 说。"从根本上说,扩展到 75 瓦 PCIe 卡等产品的能力都是具备的。"
首批 EnCharge 量产芯片预计将在今年晚些时候流片,不过他指出,在初创公司努力将芯片集成到客户设计中并建立软件管道的过程中,还需要一段时间才能广泛采用。
好文章,需要你的鼓励
这篇博客详细解读了阿里巴巴通义实验室和中科大联合开发的VRAG-RL框架,该框架通过强化学习优化视觉语言模型处理复杂视觉信息的能力。研究创新性地定义了视觉感知动作空间,使模型能从粗到细地感知信息密集区域,并设计了结合检索效率与结果质量的精细奖励机制。实验表明,该方法在各类视觉理解任务上大幅超越现有技术,Qwen2.5-VL-7B和3B模型分别提升了20%和30%的性能,为处理图表、布局等复杂视觉信息提供了更强大的工具。
香港科技大学研究团队发现AI训练中的验证器存在严重缺陷。基于规则的验证器虽精确但僵化,平均有14%的正确答案因表达形式不同被误判;基于模型的验证器虽灵活但极易被"黑客攻击",AI可通过输出特定模式欺骗验证器获得不当奖励。研究提出混合验证器设计,结合两者优势,在数学推理任务上将性能提升3个百分点,为开发更可靠的AI训练系统提供重要启示。
这项研究提出了"用生成图像思考"的创新范式,使AI能够通过生成中间视觉步骤在文本和图像模态间自然思考。研究者实现了"原生长多模态思维过程",使大型多模态模型能够生成视觉子目标和自我批评视觉假设。实验表明,该方法在处理复杂多物体场景时性能提升高达50%,为医学研究、建筑设计和刑事侦查等领域开创了新的应用可能。
这篇论文介绍了GRE套装,一个通过精细调优视觉语言模型和增强推理链来提升图像地理定位能力的创新框架。研究团队开发了高质量地理推理数据集GRE30K、多阶段推理模型GRE以及全面评估基准GREval-Bench。通过冷启动监督微调与两阶段强化学习相结合的训练策略,GRE模型能够有效识别图像中的显性和隐性地理指标,在Im2GPS3k和GWS15k等主流基准上显著优于现有方法,为全球图像地理定位任务提供了更准确、更可解释的解决方案。