ZD至顶网服务器频道 12月09日 编译:本周,在华盛顿特区召开的年度国际电子设备大会(IEDM)上,一场主题演讲表示,让芯片变得更小、更快地工作正在变得越来越难,而且成本也越来越高,但是仍然有希望实现摩尔定律的论断。在一场宽泛而公允的对话中,ARM的一位高级研究人员详细介绍了各种技术和未来的挑战。
来自奥斯汀的ARM Research的Greg Yeric在一篇IEDM的文章中写道,“半导体行业需要扩大战线,在所有的方面,包括更高的技术复杂性,在技术设计优化上进行投资以及最终的技术体系优化,才能跟上摩尔定律描述的步伐。”
Yeric写道,由于“越来越多的设计限制,包括能耗限制、电路寄生效应、多变性以及当然会出现的成本限制”,工程师们需要使用很多补救措施,这些措施可能会“破坏并且可能稀释规模效益。”他补充表示,因此,“预计有可能会为了日程安排做出重大牺牲,而且理解潜在的变化可能带来的成本—收益将会变得更加复杂。”
他写道,“可能在内存方面表现得最为尖锐,DRAM扩展需求正在爆炸,很多应用程序所需要的存储数量和水平都在提升。”
Yeric认为将现在的内存和逻辑器件结合在一起的芯片堆栈的做法看起来比目前的替代内存体系架构更有前途。
Yeric写道,固定模面积的成本在28纳米之后和之前的节点相比至少翻了一番,小体积原型的成本就变得异常高昂。(图片来源:IEDM,ARM)
他表示,“电阻RAM和相变存储器的物理特性更有可能在密度和耐力方面带来局限性,使之无法达到主内存的要求。”他补充称,“如果MRAM的能耗和成本提高,它超强的耐力会让它成为一种使存储具备计算能力的潜在选择对象,但是读边距和写干扰的问题仍然会限制可能实现的密度。”
关于工程师们是否能够找到在复杂之中制造更便宜的晶体管的方法的争论由来已久,Yeric公允地评价了这场旷日持久的辩论。他写道,“在28纳米水平之下,我们可以降低成本,尽管速度还比较慢。”
他写道,使用多个光刻机制造更为精细的模板的做法增加了成本,“但是针对7纳米节点的分档器将会比那些用于28纳米节点的分档器速度快50%。”同时,他补充表示,“膜行业承诺将继续大幅度减少写入时间,而且,多电子束膜写入可能极大地提高成本规模。”
Yeric对于极紫外线(EUV)光刻技术持怀疑态度,这项技术长期以来一直被认为是最有希望刻出更好的模板,但是这非常有挑战性,他写道,这种技术“就算是能用,可能也不能用于7纳米”。
他补充表示,“在7纳米之外,EUV可能需要多种模板,因此对于5纳米及以下的规格来说,成本是不确定的。”他还补充表示,“定向自组装是一项先进的技术(是替代EUV的另一种选择……但是)它有着自身独特的局限性,只有有限的引导模板可能是可行的,从中我们将能够创建一组有限的最终模板。”
其他的挑战还包括工程师们可能创造的芯片所具备晶体管数量超出他们可以承受的水平。
他写道,所谓的暗硅(dark-silicon)问题需要突破电路寄生效应和芯片线路扩展问题,“这可能包括多层石墨烯互联以及/或碳纳米管道。”他补充表示,“在16/14纳米之下,一半的能耗和性能都会损失在线路上,相比之下,它们在几个节点之前还只是小问题。”
Yeric写道,如果没有新的解决方法,芯片上的暗硅(dark silicon)的比例将会增加。
他写道,同时,随着芯片变得越来越小,可靠性也变成了一个日益严重的问题。诸如偏压不稳定性、随机电报噪声和软错误率等挥之不去的问题“可能导致适应性设计的代价变得更加高昂”,比今天所使用的缓解方法更加昂贵。他补充表示,“最终收益管理也许会面临挑战,需要依靠检查并识别关键工艺的能力以对抗消失的尺寸带来的负面影响。”
Yeric表示有几个领域大有希望,包括在优化专门计算块以降低能效方面一直在进行的工作。
他写道,“GPU和最终图像识别处理器可能会朝着近似计算发展……(而且)可以通过排序和匹配等常见功能提供驻内存支持来进一步提高效率,朝着真正的‘驻内存处理器’的方向前进。”
他认为,工程师们还可以进一步使用深度神经网络构建块。然而这种处理和内存的混合体可能需要改变今天单独设计、制造逻辑和存储芯片的方法。
Yeric写道,对近阀值计算(NTC)的研究很有希望,特别是在超低功耗设备随着物联网大潮的兴起而变得流行的时代。他写道,“NTC可能会被证明有双重优势,因为物联网系统既要求计算能力‘常关’以最大程度降低能耗,但是又同时要求传感设施‘常开’。”
他写道,射频模拟芯片可以率先优化NTC的概念,这样它就可以被用于为数字化处理器提供“可接受的”性能,并且“在这些新的边界条件之内”。但是他补充表示,工作载荷很高,因为现在“这个设计流程能够从NTC进一步的设计优化(包括设计)中受益,更好的电压调节器以及/或者纳米电器机械开关改变低功耗设计的局面。”
在其他的可能性中,Yeric认为印刷电路“在尺寸和能力方面正在达到上个世纪七十年代的微处理器的水平”,具备了诸如被动打印和电池等新的应用和功能。
他指出,“现在半导体行业令人难以置信的规模和容量以及应用依靠的是它让潜在的破坏在现有生态系统中独立出现变得异常困难。”但是,他写道,“计算效率可能的跃升也许会通过从电子电荷转变为光子、自旋态或者量子态的转变实现。”
——EE Times硅谷分社主管Rick Merritt
好文章,需要你的鼓励
很多人担心被AI取代,陷入无意义感。按照杨元庆的思路,其实无论是模型的打造者,还是模型的使用者,都不该把AI放在人的对立面。
MIT研究团队提出递归语言模型(RLM),通过将长文本存储在外部编程环境中,让AI能够编写代码来探索和分解文本,并递归调用自身处理子任务。该方法成功处理了比传统模型大两个数量级的文本长度,在多项长文本任务上显著优于现有方法,同时保持了相当的成本效率,为AI处理超长文本提供了全新解决方案。
谷歌宣布对Gmail进行重大升级,全面集成Gemini AI功能,将其转变为"个人主动式收件箱助手"。新功能包括AI收件箱视图,可按优先级自动分组邮件;"帮我快速了解"功能提供邮件活动摘要;扩展"帮我写邮件"工具至所有用户;支持复杂问题查询如"我的航班何时降落"。部分功能免费提供,高级功能需付费订阅。谷歌强调用户数据安全,邮件内容不会用于训练公共AI模型。
华为研究团队推出SWE-Lego框架,通过混合数据集、改进监督学习和测试时扩展三大创新,让8B参数AI模型在代码自动修复任务上击败32B对手。该系统在SWE-bench Verified测试中达到42.2%成功率,加上扩展技术后提升至49.6%,证明了精巧方法设计胜过简单规模扩展的技术理念。