研究人员正在努力研发更小型、更紧凑的人工智能系统,以解决人工智能系统对数据日益增长的需求所带来的一系列挑战。而且,不只是如今新闻报道中的生成式人工智能模型需要变得更小,那些能够运营工业设施、智慧城市或自动驾驶汽车的人工智能系统也需要如此。
大型人工智能模型面临的挑战
当你使用人工智能(无论是在手机还是笔记本电脑上)时,大部分实际计算都发生在数据中心。这是因为最流行的人工智能模型在计算上非常耗费资源——你的笔记本电脑可能没有足够的计算能力来运行查询。这些人工智能系统还会消耗大量能源。据说,在生成式人工智能模型中进行一次查询(例如问“生成式人工智能是如何工作的?”这样一个问题)所消耗的电量相当于一个灯泡点亮一小时的电量。
这给人工智能的使用带来了两个挑战。首先,这引发了人们对人工智能可持续性的担忧,因为为人工智能供电的电力也会增加温室气体排放。
在最近一项针对全球技术领导者的调查“The Impact of Technology in 2025 and Beyond: an IEEE Global Study”中,35%的人表示人工智能的实用性远远超过其能耗,而34%的人表示人工智能的能耗和实用性处于良好的平衡状态。大约五分之一(21%)的人认为人工智能的益处是显著的,但高能耗仍然是一个问题,而8%的人认为大量的能耗超过了人工智能的益处。
其次,这意味着任何依赖人工智能的事物要么需要更多的电力来运行,要么需要连接到数据中心。
削减人工智能规模的前沿技术正在取得一些成功(https://spectrum.ieee.org/1-bit-llm)。
IEEE会员Jay Shah表示:“这些(技术)耗电量显著降低,通常在瓦特范围内运行,而不是大型数据中心系统消耗的千瓦或兆瓦。”
谁需要紧凑型人工智能?
更小、更节能的人工智能系统可以用于多种应用,比如自动驾驶汽车。
Shah说:“就长期可靠性和降低功耗而言,下一代低功耗人工智能加速器对自动驾驶汽车的未来至关重要。它们能够实现实时决策并实现更紧凑的设计。”
同时,它们对机器人系统来说也是个福音,因为它们将降低机器人的电力需求。
IEEE高级会员Cristiane Agra Pimentel表示,紧凑型人工智能系统在工业环境中也将很有用,在这种环境中,更小的控制系统可以使工厂流程自动化。
Pimentel说:“在工业领域使用紧凑型人工智能将越来越适用于机器操作控制、产品追溯控制和供应链系统管理。”
小型人工智能存在权衡取舍
大型语言模型通常适用于多种用途。它们可以协助撰写大学论文,还能帮你构建网站。紧凑型系统可以针对特定系统进行优化。它们可以被设计成公司的聊天机器人或者自动补全计算机代码。
但是,紧凑型人工智能系统目前准确性较低,因为它们通常使用较少的数据。
Shah表示:“考虑到低功耗、更快的推理时间以及在边缘设备上运行人工智能的能力等好处,这些权衡通常是可以接受的。研究人员和开发人员会继续努力提高紧凑型人工智能系统的准确性,同时保持其效率优势。”
好文章,需要你的鼓励
Docker公司通过增强的compose框架和新基础设施工具,将自己定位为AI智能体开发的核心编排平台。该平台在compose规范中新增"models"元素,允许开发者在同一YAML文件中定义AI智能体、大语言模型和工具。支持LangGraph、CrewAI等多个AI框架,提供Docker Offload服务访问NVIDIA L4 GPU,并与谷歌云、微软Azure建立合作。通过MCP网关提供企业级安全隔离,解决了企业AI项目从概念验证到生产部署的断层问题。
哈佛大学研究团队开发出LangSplatV2系统,实现了超高速3D语言查询功能。该系统通过创新的稀疏编码技术和高效渲染算法,将3D场景语言理解速度提升了47倍,达到每秒384帧的实时处理能力。系统采用全局语义字典和稀疏系数表示,彻底解决了传统方法中解码器速度瓶颈问题,为AR/VR、智能机器人等应用提供了强大的技术基础。
马斯克的AI女友"Ani"引爆全球,腾讯RLVER框架突破情感理解边界:AI下半场竞争核心已转向对人性的精准把握。当技术学会共情,虚拟陪伴不再停留于脚本应答,而是通过"心与心的循环"真正理解人类孤独——这背后是强化学习算法与思考模式的化学反应,让AI从解决问题转向拥抱情感。
马里兰大学研究团队提出了CoLa(Chain-of-Layers)方法,让AI模型能够根据任务难度动态调整内部层的使用策略,实现"快思考"和"慢思考"的灵活切换。通过蒙特卡洛树搜索算法,该方法在推理任务上显著提升了模型的准确性和效率,为75%的正确答案找到了更短的处理路径,并纠正了60%的错误答案,为AI模型的架构优化开辟了新方向。