增强型人工智能为Meteor Lake处理器的设计提速,并将在未来的客户端处理器家族中得到应用。

Olena Zhu博士,英特尔客户端计算事业部高级首席工程师及人工智能解决方案架构师 (来源:英特尔公司)
数十年来,我们需要将科学与艺术相结合,以决定将热敏传感器置于英特尔客户端处理器的何处。
电路设计师会参考历史数据,来确定将热感应器放置在现代笔记本电脑的中央处理器(CPU)的哪个位置。他们还会依靠经验判断热点容易出现的区域。这个复杂的流程可能需要耗费6周时间进行测试,包括模拟工作负载,优化传感器位置,然后重新开始整个步骤。
如今,得益于英特尔工程师内部研发的一种新的增强智能工具,系统级芯片的设计师无需再等6周才能知道他们是否找到了传感器的最佳位置,他们在几分钟内就可以得到答案。
增强型智能的一小步,芯片设计的一大步
这款工具由英特尔客户端计算事业部高级首席工程师及人工智能解决方案架构师Olena Zhu博士带领增强智能团队开发。这款工具帮助英特尔的系统架构师们将数千个变量纳入未来的芯片设计中。这只是众多例子之一,其中英特尔团队利用人工智能知识来优化各种工作负载。
增强型智能是人工智能的一个子集,关注的是人类和机器如何协同工作。
英特尔客户端计算事业部首席工程师兼高级系统热力学及机械架构师 Mark Gallina说道:“像笔记本电脑这样的客户端产品非常依赖睿频和峰值频率。大家希望SoC能够突破至更高的频率,而这反过来会生成热量。”
他详细解释了工程师们必须如何精确地分析激活CPU核心、输入/输出(I/O)以及其他系统功能的复杂、并发的工作负载,以精准地确定热点的位置。使得这个过程变得更加复杂的是确定在何处放置微小的热传感器,每一个都只比你用的普通图钉尖稍大一点。
Gallina说:“这个过程需要几个星期,而且我们一次只能研究一到两个工作负载。”
英特尔新型增强智能工具解决了这些需要靠推测进行的工作。工程师输入他们的边界条件,这个工具可以处理数千个变量,几分钟内就能返回理想的设计建议。
工程师们已在英特尔® 酷睿™ Ultra移动处理器系列(Meteor Lake)SoC设计中应用该工具。Meteor Lake于2023年12月14日正式发布。同时,这款工具也将会在未来客户端产品如Lunar Lake及其后继产品中得到应用,这有助于进一步扩展AI PC等级的笔记本产品线。

英特尔增强智能团队成员,左起:Mark Gallina,Olena Zhu 和 Michael Frederick,位于俄勒冈州希尔斯伯勒的英特尔客户端计算事业部实验室。
更多AI:利用增强AI识别热工作负载以优化芯片设计
Olena Zhu和其团队成员首席工程师和AI 解决方案架构师Ivy Zhu还开发了一个能快速识别关键热工作负荷的配套工具。
Olena解释说,其工作原理是这样的:她的团队基于少数工作负载的模拟或测量结果,训练AI模型。然后,这些AI模型能够预测英特尔尚未进行模拟或测量的其他工作负载。
这两款增强智能工具,共同提升了工程师们优化未来英特尔处理器系列的芯片设计能力,包括用于驱动下一代AI PC的客户端处理器。
尽管这两个工具都非常有用并且不会出现任何错误,但是增强智能在短期内并不会取代真正的工程师。
Gallina表示:“通过增强智能,我们结合计算机学习和人体工程学专业知识,以确保将我们有限的资源投入到最佳领域。”
“这款新工具彻底革新了我们目前处理热量的方式。它更为高效,并且在我们启动SoC之前,能让我们对热风险有清晰的认识。我们以前一直在黑暗中摸索,但现在,有了增强智能,就好比我们得到了一盏手电筒,照亮了前进的道路。”
增强型智能助力类似“大海捞针”的精准工作
几年前,Olena惊喜地意识到人工智能投资的飞速进展为英特尔的设计工作打开了新的大门。
Olena表示:“运用增强型智能带来的一种新的工具类型,我们能够比以往更有效地处理数据。当我们将人工智能与现有的卓越工程实力相结合时,可以更有效地在海量数据中准确定位和快速处理。”
得益于Olena及团队的努力,英特尔的工程师们均在致力于发展人工智能。英特尔客户端计算事业部的增强智能团队继续寻找人工智能加快硬件和软件设计的方法,并获得了以下进展:
英特尔的其他工程团队也在英特尔丰富的产品组合中巧妙使用AI:英特尔® 硬件线程调度器算法正式在第13代英特尔® 酷睿™ 处理器CPU中亮相,使工作负载提高了20%以上。
另一个例子,工程团队利用内部开发的智能AI算法,成功将单个处理器的测试时间减少了50%。
Olena说道:“产业中将AI融入类似的工程应用的趋势愈演愈烈,而英特尔无疑会欣然接受并充分利用这一趋势。”
好文章,需要你的鼓励
微软近年来频繁出现技术故障和服务中断,从Windows更新删除用户文件到Azure云服务因配置错误而崩溃,质量控制问题愈发突出。2014年公司大幅裁减测试团队后,采用敏捷开发模式替代传统测试方法,但结果并不理想。虽然Windows生态系统庞大复杂,某些问题在所难免,但Azure作为微软核心云服务,反复因配置变更导致客户服务中断,已不仅仅是质量控制问题,更是对公司技术能力的质疑。
Meta研究团队发现仅仅改变AI示例间的分隔符号就能导致模型性能产生高达45%的巨大差异,甚至可以操纵AI排行榜排名。这个看似微不足道的格式选择问题普遍存在于所有主流AI模型中,包括最先进的GPT-4o,揭示了当前AI评测体系的根本性缺陷。研究提出通过明确说明分隔符类型等方法可以部分缓解这一问题。
当团队准备部署大语言模型时,面临开源与闭源的选择。专家讨论显示,美国在开源AI领域相对落后,而中国有更多开源模型。开源系统建立在信任基础上,需要开放数据、模型架构和参数。然而,即使是被称为"开源"的DeepSeek也并非完全开源。企业客户往往倾向于闭源系统,但开源权重模型仍能提供基础设施选择自由。AI主权成为国家安全考量,各国希望控制本地化AI发展命运。
香港中文大学研究团队开发出CALM训练框架和STORM模型,通过轻量化干预方式让40亿参数小模型在优化建模任务上达到6710亿参数大模型的性能。该方法保护模型原生推理能力,仅修改2.6%内容就实现显著提升,为AI优化建模应用大幅降低了技术门槛和成本。