专访 AI 芯片初创公司 EnCharge 声称其模拟人工智能加速器性能可以媲美桌面 GPU,但功耗仅为后者的一小部分。这在理论上令人印象深刻,现在面临的难题是:在现实世界中证明这一点。
该公司声称已开发出一种用于 AI 推理的新型内存计算架构,用模拟电容器替代传统晶体管,与 GPU 等数字加速器相比,每瓦性能提高了 20 倍。
根据 CEO Naveen Verma 的说法,EnCharge 的推理芯片在仅消耗 1 瓦功率的情况下,就能在 8 位精度下提供 150 TOPS 的 AI 算力。如果将功耗提高到 4.5 瓦,Verma 声称其性能可以媲美桌面 GPU,但功耗仅为后者的百分之一。至少,这是他们的宣传。
然而,这并非纯理论。EnCharge 的芯片源自 Verma 在普林斯顿大学的实验室,得到了美国国防高级研究计划局 (DARPA) 和台湾芯片制造巨头 TSMC 的支持。Verma 告诉我们,该公司已经流片了几个测试芯片来证明该架构的可行性。
"我们正在开发的产品实际上是基于我的研究实验室开发的一项基础技术,"他说,"我们确实有机会从根本上研究 AI 计算面临的挑战。"
在获得了来自 Tiger Global、RTX 等投资者的 1 亿美元 B 轮融资后,EnCharge 计划在今年晚些时候流片首批面向移动设备、PC 和工作站的量产芯片。
Verma 表示,真正的区别在于芯片如何以及在哪里进行计算。如今,绝大多数生成式 AI 计算都是使用大量乘累加单元 (MAC) 完成的。
在传统架构中,这些单元由数十亿个晶体管门电路构成,由于数字是用二进制的 1 和 0 表示的,所以最终只能处理离散值。Verma 认为这种方法可以改进,通过使用连续值而不是离散值,可以提高效率和精度。
因此,EnCharge 的 MAC 单元采用模拟电容器构建,可以根据其电荷水平表示任意连续信号值。而且由于电容器基本上就是由两个导体被介电材料分隔开,因此可以使用现有的 CMOS 技术轻松地蚀刻到硅片中,Verma 说。
EnCharge 设计的第二个要素是在内存中进行模拟计算。
内存计算并不是一个新概念。多年来,已经有几家公司在努力将基于这一概念的 AI 加速器商业化。这个概念的核心思想是,通过将计算(通常是大量数学电路)嵌入到内存中,可以直接在原地计算矩阵,而不需要移动数据。
在 EnCharge 的设计中,模拟电容器现在负责通过累加电荷来执行这种计算。
"当你驱动这些电容器中的任何一个时,耦合的电容线的输出基本上会达到信号的平均值,"他说,"平均值就是一种累加。它应该根据你平均的项数进行归一化。"
实现这一点花费了八年的研究和开发时间,不仅包括开发内存模拟矩阵累加单元,还包括使其可编程所需的所有其他内容。
"我们认识到,当你有这些基础技术突破时,还必须构建完整的架构,并开发所有软件,"Verma 说。
说到可编程性,EnCharge 的芯片支持各种 AI 工作负载,从卷积神经网络到支持大语言模型和扩散模型的 Transformer 架构。
作为推理芯片,其设计会根据目标工作负载而变化。对于某些工作负载,内存容量和带宽等因素可能比原始计算能力对性能的影响更大。
例如,大语言模型往往受内存限制,内存容量和带宽对感知性能的影响往往比它能产生的 TOPS 数量更大。因此,Verma 说,针对这类工作负载的 EnCharge 芯片可能会减少用于计算的芯片面积,以便为更大的内存总线腾出空间。
相反,对于扩散模型这样不太受内存限制的应用,你可能需要更多的计算能力来更快地生成图像。
目前,考虑到易于采用,EnCharge 坚持使用 M.2 或 PCIe 插卡形式。我们之前见过采用这种形式的低功耗加速器,如 Google 的 Coral TPU 和 Hailo 的 NPU。
从长远来看,这项技术可以适应更大、更高功率的应用,Verma 说。"从根本上说,扩展到 75 瓦 PCIe 卡等产品的能力都是具备的。"
首批 EnCharge 量产芯片预计将在今年晚些时候流片,不过他指出,在初创公司努力将芯片集成到客户设计中并建立软件管道的过程中,还需要一段时间才能广泛采用。
好文章,需要你的鼓励
邻里社交应用Nextdoor推出重新设计版本,新增本地新闻、实时警报和名为"Faves"的AI功能,用于发现本地商户和地点。该应用与3500家本地出版商合作提供新闻内容,通过Samdesk和Weather.com提供天气、交通、停电等实时警报。Faves功能利用15年邻里对话数据训练的大语言模型,为用户提供本地化AI推荐服务,帮助用户找到最佳餐厅、徒步地点等本地信息。
Skywork AI推出的第二代多模态推理模型R1V2,通过创新的混合强化学习方法,成功解决了AI"慢思考"策略在视觉推理中的挑战。该模型在保持强大推理能力的同时有效控制视觉幻觉,在多项权威测试中超越同类开源模型,某些指标甚至媲美商业产品,为开源AI发展树立了新标杆。
英国生物银行完成了世界上最大规模的全身成像项目,收集了10万名志愿者的超过10亿次扫描数据,用于研究人体衰老和疾病过程。该项目历时11年,每次扫描耗时5小时,投资6200万英镑。目前已有8万人的成像数据供全球研究人员使用,剩余数据将于年底前发布。项目已开发出能预测38种常见疾病的AI工具,并在心脏病、痴呆症和癌症诊断方面取得突破。
这项由北京大学等多所高校联合完成的研究,首次对OpenAI GPT-4o的图像生成能力进行了全面评估。研究团队设计了名为GPT-ImgEval的综合测试体系,从文本转图像、图像编辑和知识驱动创作三个维度评估GPT-4o,发现其在所有测试中都显著超越现有方法。研究还通过技术分析推断GPT-4o采用了自回归与扩散相结合的混合架构,并发现其生成图像仍可被现有检测工具有效识别,为AI图像生成领域提供了重要的评估基准和技术洞察。