未来的 AI 是...模拟计算?初创公司获得 1 亿美元投资,推进低功耗 GPU 级芯片

这篇文章介绍了AI芯片初创公司EnCharge的创新技术,该公司声称其模拟人工智能加速器在功耗上仅需传统桌面GPU的一小部分,却能提供相当的计算性能。EnCharge的推理芯片在8位精度下能以1瓦特的功耗提供150 TOPS的AI计算能力。该技术经过多年的研发,旨在通过在内存中进行计算来提高效率,并支持多种AI工作负载。

专访 AI 芯片初创公司 EnCharge 声称其模拟人工智能加速器性能可以媲美桌面 GPU,但功耗仅为后者的一小部分。这在理论上令人印象深刻,现在面临的难题是:在现实世界中证明这一点。

该公司声称已开发出一种用于 AI 推理的新型内存计算架构,用模拟电容器替代传统晶体管,与 GPU 等数字加速器相比,每瓦性能提高了 20 倍。

根据 CEO Naveen Verma 的说法,EnCharge 的推理芯片在仅消耗 1 瓦功率的情况下,就能在 8 位精度下提供 150 TOPS 的 AI 算力。如果将功耗提高到 4.5 瓦,Verma 声称其性能可以媲美桌面 GPU,但功耗仅为后者的百分之一。至少,这是他们的宣传。

然而,这并非纯理论。EnCharge 的芯片源自 Verma 在普林斯顿大学的实验室,得到了美国国防高级研究计划局 (DARPA) 和台湾芯片制造巨头 TSMC 的支持。Verma 告诉我们,该公司已经流片了几个测试芯片来证明该架构的可行性。

"我们正在开发的产品实际上是基于我的研究实验室开发的一项基础技术,"他说,"我们确实有机会从根本上研究 AI 计算面临的挑战。"

在获得了来自 Tiger Global、RTX 等投资者的 1 亿美元 B 轮融资后,EnCharge 计划在今年晚些时候流片首批面向移动设备、PC 和工作站的量产芯片。

Verma 表示,真正的区别在于芯片如何以及在哪里进行计算。如今,绝大多数生成式 AI 计算都是使用大量乘累加单元 (MAC) 完成的。

在传统架构中,这些单元由数十亿个晶体管门电路构成,由于数字是用二进制的 1 和 0 表示的,所以最终只能处理离散值。Verma 认为这种方法可以改进,通过使用连续值而不是离散值,可以提高效率和精度。

因此,EnCharge 的 MAC 单元采用模拟电容器构建,可以根据其电荷水平表示任意连续信号值。而且由于电容器基本上就是由两个导体被介电材料分隔开,因此可以使用现有的 CMOS 技术轻松地蚀刻到硅片中,Verma 说。

EnCharge 设计的第二个要素是在内存中进行模拟计算。

内存计算并不是一个新概念。多年来,已经有几家公司在努力将基于这一概念的 AI 加速器商业化。这个概念的核心思想是,通过将计算(通常是大量数学电路)嵌入到内存中,可以直接在原地计算矩阵,而不需要移动数据。

在 EnCharge 的设计中,模拟电容器现在负责通过累加电荷来执行这种计算。

"当你驱动这些电容器中的任何一个时,耦合的电容线的输出基本上会达到信号的平均值,"他说,"平均值就是一种累加。它应该根据你平均的项数进行归一化。"

实现这一点花费了八年的研究和开发时间,不仅包括开发内存模拟矩阵累加单元,还包括使其可编程所需的所有其他内容。

"我们认识到,当你有这些基础技术突破时,还必须构建完整的架构,并开发所有软件,"Verma 说。

说到可编程性,EnCharge 的芯片支持各种 AI 工作负载,从卷积神经网络到支持大语言模型和扩散模型的 Transformer 架构。

作为推理芯片,其设计会根据目标工作负载而变化。对于某些工作负载,内存容量和带宽等因素可能比原始计算能力对性能的影响更大。

例如,大语言模型往往受内存限制,内存容量和带宽对感知性能的影响往往比它能产生的 TOPS 数量更大。因此,Verma 说,针对这类工作负载的 EnCharge 芯片可能会减少用于计算的芯片面积,以便为更大的内存总线腾出空间。

相反,对于扩散模型这样不太受内存限制的应用,你可能需要更多的计算能力来更快地生成图像。

目前,考虑到易于采用,EnCharge 坚持使用 M.2 或 PCIe 插卡形式。我们之前见过采用这种形式的低功耗加速器,如 Google 的 Coral TPU 和 Hailo 的 NPU。

从长远来看,这项技术可以适应更大、更高功率的应用,Verma 说。"从根本上说,扩展到 75 瓦 PCIe 卡等产品的能力都是具备的。"

首批 EnCharge 量产芯片预计将在今年晚些时候流片,不过他指出,在初创公司努力将芯片集成到客户设计中并建立软件管道的过程中,还需要一段时间才能广泛采用。

来源:The Register

0赞

好文章,需要你的鼓励

2025

02/20

16:33

分享

点赞

邮件订阅