放眼未来,专用芯片与电路可能无法拯救整个计算机行业。
时至今日,加速器早已无处不在:世界上的比特币大多由用于加速加密货币核心算法的芯片采矿得来,几乎每一种能够发出声音的数字产品都在使用硬连线音频解码器;而且当前亦有数十家初创企业在探索速度更快的专用芯片,旨在真正推动深度学习AI实现普及。这种专用化趋势,使得各类原本运行在通用CPU之上的软件及其内部常见算法得以在定制化硬件上带来更快的处理速度。但必须承认,从悲观角度来讲,这也是摩尔定律失效之后,我们能够在接下来一到两代芯片当中继续驱动计算能力保持增长的少数可行方法之一。
但更遗憾的是,这种过渡性方案也即将走向终点——至少将有不久的将来耗尽一切潜能空间。普林斯顿大学电气工程学副教授David Wentzlaff和他的博士生Adi Fuchs即将在本月IEEE国际高性能计算机架构研讨会上就这一研究方向提出重要结论。根据他们计算出的结果,芯片专用化无法带来与摩尔定律相契合的性能收益。换句话说,加速器的发展即将向已经开始萎缩的晶体管那样走向尽头,而且这一切的来临都要远早于人们的预期。
为了证明他们的观点,Fuchs与Wentzlaff首先需要弄清楚近期芯片中表现出的性能提升之内,有多大比例来自芯片专用化调整,又有多大比例源自摩尔定律本身。这意味着他们需要检查1000多份芯片数据表,同时弄清这些不同型号处理器中的哪些性能组成部分源自更好的算法,又有哪些由更巧妙的电路实现方法所贡献。更具体地讲,他们希望把这段时间半导体行业内的人类聪明才智进行一番量化统计。
为了实现这一目标,他们采取了工程师最擅长的方法:将问题转换为无量纲量。他们将其称为芯片专用化回归,并希望借此解决这样一个问题:“晶体管的计算能力在晶体管自身的固体物理潜能空间中还有多大的改善余地?”
利用这一指标,他们评估了特定应用集成电路(简称ASIC)上的视频解码性能,在GPU上测试游戏帧率,在FPGA上测试卷积神经网络并在ASIC上尝试比特币采矿。然而,得出的结果令人相当沮丧:专用芯片的增益在很大程度上仍然源自每平方毫米内可用晶体管数量的增加。换句话说,如果没有摩尔定律的支持,芯片专用化本身并不能带来显著的性能提升。
因此,如果专用化无法给出理想的答案,那么未来的出路在哪里?Wentzlaff建议半导体业界学习使用那些能够在逻辑停止时仍可实现扩展的事物进行计算。举例来说,每平方厘米内的可用闪存bit数能够不断增加,这与摩尔定律无关,因为业界已经开始能够制造出256层甚至更高单元层数的3D堆叠技术。Fuchs与Wentzlaff已经开始就这一方向展开探索,他们希望开发出一种新的计算机架构,通过让处理器查找存储在内存当中的原有计算结果(而非重新进行计算)来加快计算速度。
Wentzlaff最后总结道,摩尔定律的终结“并不是世界末日。但很明显,我们仍然需要为此做好准备。”
好文章,需要你的鼓励
微软近年来频繁出现技术故障和服务中断,从Windows更新删除用户文件到Azure云服务因配置错误而崩溃,质量控制问题愈发突出。2014年公司大幅裁减测试团队后,采用敏捷开发模式替代传统测试方法,但结果并不理想。虽然Windows生态系统庞大复杂,某些问题在所难免,但Azure作为微软核心云服务,反复因配置变更导致客户服务中断,已不仅仅是质量控制问题,更是对公司技术能力的质疑。
Meta研究团队发现仅仅改变AI示例间的分隔符号就能导致模型性能产生高达45%的巨大差异,甚至可以操纵AI排行榜排名。这个看似微不足道的格式选择问题普遍存在于所有主流AI模型中,包括最先进的GPT-4o,揭示了当前AI评测体系的根本性缺陷。研究提出通过明确说明分隔符类型等方法可以部分缓解这一问题。
当团队准备部署大语言模型时,面临开源与闭源的选择。专家讨论显示,美国在开源AI领域相对落后,而中国有更多开源模型。开源系统建立在信任基础上,需要开放数据、模型架构和参数。然而,即使是被称为"开源"的DeepSeek也并非完全开源。企业客户往往倾向于闭源系统,但开源权重模型仍能提供基础设施选择自由。AI主权成为国家安全考量,各国希望控制本地化AI发展命运。
香港中文大学研究团队开发出CALM训练框架和STORM模型,通过轻量化干预方式让40亿参数小模型在优化建模任务上达到6710亿参数大模型的性能。该方法保护模型原生推理能力,仅修改2.6%内容就实现显著提升,为AI优化建模应用大幅降低了技术门槛和成本。