增强型人工智能为Meteor Lake处理器的设计提速,并将在未来的客户端处理器家族中得到应用。

Olena Zhu博士,英特尔客户端计算事业部高级首席工程师及人工智能解决方案架构师 (来源:英特尔公司)
数十年来,我们需要将科学与艺术相结合,以决定将热敏传感器置于英特尔客户端处理器的何处。
电路设计师会参考历史数据,来确定将热感应器放置在现代笔记本电脑的中央处理器(CPU)的哪个位置。他们还会依靠经验判断热点容易出现的区域。这个复杂的流程可能需要耗费6周时间进行测试,包括模拟工作负载,优化传感器位置,然后重新开始整个步骤。
如今,得益于英特尔工程师内部研发的一种新的增强智能工具,系统级芯片的设计师无需再等6周才能知道他们是否找到了传感器的最佳位置,他们在几分钟内就可以得到答案。
增强型智能的一小步,芯片设计的一大步
这款工具由英特尔客户端计算事业部高级首席工程师及人工智能解决方案架构师Olena Zhu博士带领增强智能团队开发。这款工具帮助英特尔的系统架构师们将数千个变量纳入未来的芯片设计中。这只是众多例子之一,其中英特尔团队利用人工智能知识来优化各种工作负载。
增强型智能是人工智能的一个子集,关注的是人类和机器如何协同工作。
英特尔客户端计算事业部首席工程师兼高级系统热力学及机械架构师 Mark Gallina说道:“像笔记本电脑这样的客户端产品非常依赖睿频和峰值频率。大家希望SoC能够突破至更高的频率,而这反过来会生成热量。”
他详细解释了工程师们必须如何精确地分析激活CPU核心、输入/输出(I/O)以及其他系统功能的复杂、并发的工作负载,以精准地确定热点的位置。使得这个过程变得更加复杂的是确定在何处放置微小的热传感器,每一个都只比你用的普通图钉尖稍大一点。
Gallina说:“这个过程需要几个星期,而且我们一次只能研究一到两个工作负载。”
英特尔新型增强智能工具解决了这些需要靠推测进行的工作。工程师输入他们的边界条件,这个工具可以处理数千个变量,几分钟内就能返回理想的设计建议。
工程师们已在英特尔® 酷睿™ Ultra移动处理器系列(Meteor Lake)SoC设计中应用该工具。Meteor Lake于2023年12月14日正式发布。同时,这款工具也将会在未来客户端产品如Lunar Lake及其后继产品中得到应用,这有助于进一步扩展AI PC等级的笔记本产品线。

英特尔增强智能团队成员,左起:Mark Gallina,Olena Zhu 和 Michael Frederick,位于俄勒冈州希尔斯伯勒的英特尔客户端计算事业部实验室。
更多AI:利用增强AI识别热工作负载以优化芯片设计
Olena Zhu和其团队成员首席工程师和AI 解决方案架构师Ivy Zhu还开发了一个能快速识别关键热工作负荷的配套工具。
Olena解释说,其工作原理是这样的:她的团队基于少数工作负载的模拟或测量结果,训练AI模型。然后,这些AI模型能够预测英特尔尚未进行模拟或测量的其他工作负载。
这两款增强智能工具,共同提升了工程师们优化未来英特尔处理器系列的芯片设计能力,包括用于驱动下一代AI PC的客户端处理器。
尽管这两个工具都非常有用并且不会出现任何错误,但是增强智能在短期内并不会取代真正的工程师。
Gallina表示:“通过增强智能,我们结合计算机学习和人体工程学专业知识,以确保将我们有限的资源投入到最佳领域。”
“这款新工具彻底革新了我们目前处理热量的方式。它更为高效,并且在我们启动SoC之前,能让我们对热风险有清晰的认识。我们以前一直在黑暗中摸索,但现在,有了增强智能,就好比我们得到了一盏手电筒,照亮了前进的道路。”
增强型智能助力类似“大海捞针”的精准工作
几年前,Olena惊喜地意识到人工智能投资的飞速进展为英特尔的设计工作打开了新的大门。
Olena表示:“运用增强型智能带来的一种新的工具类型,我们能够比以往更有效地处理数据。当我们将人工智能与现有的卓越工程实力相结合时,可以更有效地在海量数据中准确定位和快速处理。”
得益于Olena及团队的努力,英特尔的工程师们均在致力于发展人工智能。英特尔客户端计算事业部的增强智能团队继续寻找人工智能加快硬件和软件设计的方法,并获得了以下进展:
英特尔的其他工程团队也在英特尔丰富的产品组合中巧妙使用AI:英特尔® 硬件线程调度器算法正式在第13代英特尔® 酷睿™ 处理器CPU中亮相,使工作负载提高了20%以上。
另一个例子,工程团队利用内部开发的智能AI算法,成功将单个处理器的测试时间减少了50%。
Olena说道:“产业中将AI融入类似的工程应用的趋势愈演愈烈,而英特尔无疑会欣然接受并充分利用这一趋势。”
好文章,需要你的鼓励
很多人担心被AI取代,陷入无意义感。按照杨元庆的思路,其实无论是模型的打造者,还是模型的使用者,都不该把AI放在人的对立面。
MIT研究团队提出递归语言模型(RLM),通过将长文本存储在外部编程环境中,让AI能够编写代码来探索和分解文本,并递归调用自身处理子任务。该方法成功处理了比传统模型大两个数量级的文本长度,在多项长文本任务上显著优于现有方法,同时保持了相当的成本效率,为AI处理超长文本提供了全新解决方案。
谷歌宣布对Gmail进行重大升级,全面集成Gemini AI功能,将其转变为"个人主动式收件箱助手"。新功能包括AI收件箱视图,可按优先级自动分组邮件;"帮我快速了解"功能提供邮件活动摘要;扩展"帮我写邮件"工具至所有用户;支持复杂问题查询如"我的航班何时降落"。部分功能免费提供,高级功能需付费订阅。谷歌强调用户数据安全,邮件内容不会用于训练公共AI模型。
华为研究团队推出SWE-Lego框架,通过混合数据集、改进监督学习和测试时扩展三大创新,让8B参数AI模型在代码自动修复任务上击败32B对手。该系统在SWE-bench Verified测试中达到42.2%成功率,加上扩展技术后提升至49.6%,证明了精巧方法设计胜过简单规模扩展的技术理念。