专访 AI 芯片初创公司 EnCharge 声称其模拟人工智能加速器性能可以媲美桌面 GPU,但功耗仅为后者的一小部分。这在理论上令人印象深刻,现在面临的难题是:在现实世界中证明这一点。
该公司声称已开发出一种用于 AI 推理的新型内存计算架构,用模拟电容器替代传统晶体管,与 GPU 等数字加速器相比,每瓦性能提高了 20 倍。
根据 CEO Naveen Verma 的说法,EnCharge 的推理芯片在仅消耗 1 瓦功率的情况下,就能在 8 位精度下提供 150 TOPS 的 AI 算力。如果将功耗提高到 4.5 瓦,Verma 声称其性能可以媲美桌面 GPU,但功耗仅为后者的百分之一。至少,这是他们的宣传。
然而,这并非纯理论。EnCharge 的芯片源自 Verma 在普林斯顿大学的实验室,得到了美国国防高级研究计划局 (DARPA) 和台湾芯片制造巨头 TSMC 的支持。Verma 告诉我们,该公司已经流片了几个测试芯片来证明该架构的可行性。
"我们正在开发的产品实际上是基于我的研究实验室开发的一项基础技术,"他说,"我们确实有机会从根本上研究 AI 计算面临的挑战。"
在获得了来自 Tiger Global、RTX 等投资者的 1 亿美元 B 轮融资后,EnCharge 计划在今年晚些时候流片首批面向移动设备、PC 和工作站的量产芯片。
Verma 表示,真正的区别在于芯片如何以及在哪里进行计算。如今,绝大多数生成式 AI 计算都是使用大量乘累加单元 (MAC) 完成的。
在传统架构中,这些单元由数十亿个晶体管门电路构成,由于数字是用二进制的 1 和 0 表示的,所以最终只能处理离散值。Verma 认为这种方法可以改进,通过使用连续值而不是离散值,可以提高效率和精度。
因此,EnCharge 的 MAC 单元采用模拟电容器构建,可以根据其电荷水平表示任意连续信号值。而且由于电容器基本上就是由两个导体被介电材料分隔开,因此可以使用现有的 CMOS 技术轻松地蚀刻到硅片中,Verma 说。
EnCharge 设计的第二个要素是在内存中进行模拟计算。
内存计算并不是一个新概念。多年来,已经有几家公司在努力将基于这一概念的 AI 加速器商业化。这个概念的核心思想是,通过将计算(通常是大量数学电路)嵌入到内存中,可以直接在原地计算矩阵,而不需要移动数据。
在 EnCharge 的设计中,模拟电容器现在负责通过累加电荷来执行这种计算。
"当你驱动这些电容器中的任何一个时,耦合的电容线的输出基本上会达到信号的平均值,"他说,"平均值就是一种累加。它应该根据你平均的项数进行归一化。"
实现这一点花费了八年的研究和开发时间,不仅包括开发内存模拟矩阵累加单元,还包括使其可编程所需的所有其他内容。
"我们认识到,当你有这些基础技术突破时,还必须构建完整的架构,并开发所有软件,"Verma 说。
说到可编程性,EnCharge 的芯片支持各种 AI 工作负载,从卷积神经网络到支持大语言模型和扩散模型的 Transformer 架构。
作为推理芯片,其设计会根据目标工作负载而变化。对于某些工作负载,内存容量和带宽等因素可能比原始计算能力对性能的影响更大。
例如,大语言模型往往受内存限制,内存容量和带宽对感知性能的影响往往比它能产生的 TOPS 数量更大。因此,Verma 说,针对这类工作负载的 EnCharge 芯片可能会减少用于计算的芯片面积,以便为更大的内存总线腾出空间。
相反,对于扩散模型这样不太受内存限制的应用,你可能需要更多的计算能力来更快地生成图像。
目前,考虑到易于采用,EnCharge 坚持使用 M.2 或 PCIe 插卡形式。我们之前见过采用这种形式的低功耗加速器,如 Google 的 Coral TPU 和 Hailo 的 NPU。
从长远来看,这项技术可以适应更大、更高功率的应用,Verma 说。"从根本上说,扩展到 75 瓦 PCIe 卡等产品的能力都是具备的。"
首批 EnCharge 量产芯片预计将在今年晚些时候流片,不过他指出,在初创公司努力将芯片集成到客户设计中并建立软件管道的过程中,还需要一段时间才能广泛采用。
好文章,需要你的鼓励
随着AI模型参数达到数十亿甚至万亿级别,工程团队面临内存约束和计算负担等共同挑战。新兴技术正在帮助解决这些问题:输入和数据压缩技术可将模型压缩50-60%;稀疏性方法通过关注重要区域节省资源;调整上下文窗口减少系统资源消耗;动态模型和强推理系统通过自学习优化性能;扩散模型通过噪声分析生成新结果;边缘计算将数据处理转移到网络端点设备。这些创新方案为构建更高效的AI架构提供了可行路径。
清华大学团队开发了CAMS智能框架,这是首个将城市知识大模型与智能体技术结合的人类移动模拟系统。该系统仅需用户基本信息就能在真实城市中生成逼真的日常轨迹,通过三个核心模块实现了个体行为模式提取、城市空间知识生成和轨迹优化。实验表明CAMS在多项指标上显著优于现有方法,为城市规划、交通管理等领域提供了强大工具。
Meta以143亿美元投资Scale AI,获得49%股份,这是该公司在AI竞赛中最重要的战略举措。该交易解决了Meta在AI发展中面临的核心挑战:获取高质量训练数据。Scale AI创始人王亚历山大将加入Meta领导新的超级智能研究实验室。此次投资使Meta获得了Scale AI在全球的数据标注服务,包括图像、文本和视频处理能力,同时限制了竞争对手的数据获取渠道。
MIT研究团队发现了一个颠覆性的AI训练方法:那些通常被丢弃的模糊、失真的"垃圾"图片,竟然能够训练出比传统方法更优秀的AI模型。他们开发的Ambient Diffusion Omni框架通过智能识别何时使用何种质量的数据,不仅在ImageNet等权威测试中创造新纪录,还为解决AI发展的数据瓶颈问题开辟了全新道路。