数字经济时代,芯片的作用自不待言。
在2023英特尔on技术创新大会上,英特尔提出了“芯经济”这全新概念。
“芯经济”指的是“在芯片和软件的推动下,正在不断增长的经济形态”。如今,芯片形成了规模达5740亿美元的产业,并驱动着全球约8万亿美元的技术经济(tech economy)。

英特尔公司高级副总裁、英特尔中国区董事长王锐博士在接受记者采访时表示,芯片已经变成未来经济的基本需求。全年新的数字经济时代需要半导体支撑,而英特尔为“芯经济”从底层带来驱动力和支撑作用。
多管齐下延续摩尔定律
在王锐看来,半导体产业一直在演变,而摩尔定律是重要推动力量,英特尔并不是一条路打通摩尔定律,而是多条创新路径推动摩尔定律持续演进。
在大会上,我们看到了英特尔在制程、封装和多芯粒解决方案领域的最新进展。
英特尔的“四年五个制程节点”计划进展顺利,Intel 7已经实现大规模量产,Intel 4已经生产准备就绪,Intel 3也在按计划推进中,目标是2023年年底。
除制程外,英特尔向前推进摩尔定律的另一路径是使用新材料和新封装技术,如玻璃基板(glass substrates)。玻璃基板将于2020年代后期推出,继续增加单个封装内的晶体管数量,助力满足AI等数据密集型高性能工作负载的需求,并在2030年后继续推进摩尔定律。
多芯粒封装技术正在推动摩尔定律的下一波浪潮,发起于去年的UCIe标准将让来自不同厂商的芯粒能够协同工作,从而以新型芯片设计满足不同AI工作负载的扩展需求。目前,UCIe开放标准已经得到了超过120家公司的支持。
英特尔展示了基于通用芯粒高速互连开放规范(UCIe)的测试芯片封装。该测试芯片集成了基于Intel 3制程节点的英特尔UCIe IP芯粒,和基于TSMC N3E制程节点的Synopsys UCIe IP芯粒。这些芯粒通过EMIB(嵌入式多芯片互连桥接)先进封装技术互连在一起。英特尔代工服务(Intel Foundry Services)、TSMC和Synopsys携手推动UCIe的发展,体现了三者支持基于开放标准的芯粒生态系统的承诺。
“面对新经济,英特尔信心满满。毕竟宏大的数字经济的趋势承载在芯片上面。英特尔从晶体管一直到软件架构,数据中心到边缘、客户端,全面布局。”王锐说。
AI无处不在
这是一个AI无处不在的时代。
王锐表示,英特尔把AI的能力内置到芯片中,根据客户的需求,用不同的算力和架构,支撑从客户端和边缘,到网络和云的所有工作负载。
在这次大会上,英特尔推出搭载英特尔酷睿Ultra处理器的AI PC。
王锐说,AI PC是PC下一代的创新。AI将通过云与PC的紧密协作,进而从根本上改变、重塑和重构PC体验,释放人们的生产力和创造力。我们正迈向AI PC的新时代。
酷睿Ultra处理器是首个采用Foveros封装技术的客户端芯粒设计。除了NPU以及Intel 4制程节点在性能功耗比上的重大进步外,这款处理器还通过集成英特尔锐炫显卡,带来了独立显卡级别的性能。
在数据中心领域,第五代英特尔至强处理器将于12月14日发布,具备高能效的能效核(E-core)处理器Sierra Forest将于2024年上半年上市。
与第四代至强相比,拥有288核的该处理器预计将使机架密度提升2.5倍,每瓦性能提高2.4倍。紧随Sierra Forest发布的是具备高性能的性能核(P-core)处理器Granite Rapids,与第四代至强相比,其AI性能预计将提高2到3倍。
展望2025年,代号为Clearwater Forest的下一代至强能效核处理器将基于Intel 18A制程节点制造。
面向开发者,英特尔开发者云平台全面上线,OpenVINO工具套件2023.1版也正式发布,• Strata项目以及边缘原生软件平台将于2024年推出。
“英特尔秉持开放生态的理念,可以充分发挥计算能力,与合作伙伴打造创新生态。”王锐说,“英特尔的竞争对手是自己,在不断前行中,虽然会遇到挑战,但是面对挑战,我们会找到解决方法,将创新的引擎运转起来。”
好文章,需要你的鼓励
微软近年来频繁出现技术故障和服务中断,从Windows更新删除用户文件到Azure云服务因配置错误而崩溃,质量控制问题愈发突出。2014年公司大幅裁减测试团队后,采用敏捷开发模式替代传统测试方法,但结果并不理想。虽然Windows生态系统庞大复杂,某些问题在所难免,但Azure作为微软核心云服务,反复因配置变更导致客户服务中断,已不仅仅是质量控制问题,更是对公司技术能力的质疑。
Meta研究团队发现仅仅改变AI示例间的分隔符号就能导致模型性能产生高达45%的巨大差异,甚至可以操纵AI排行榜排名。这个看似微不足道的格式选择问题普遍存在于所有主流AI模型中,包括最先进的GPT-4o,揭示了当前AI评测体系的根本性缺陷。研究提出通过明确说明分隔符类型等方法可以部分缓解这一问题。
当团队准备部署大语言模型时,面临开源与闭源的选择。专家讨论显示,美国在开源AI领域相对落后,而中国有更多开源模型。开源系统建立在信任基础上,需要开放数据、模型架构和参数。然而,即使是被称为"开源"的DeepSeek也并非完全开源。企业客户往往倾向于闭源系统,但开源权重模型仍能提供基础设施选择自由。AI主权成为国家安全考量,各国希望控制本地化AI发展命运。
香港中文大学研究团队开发出CALM训练框架和STORM模型,通过轻量化干预方式让40亿参数小模型在优化建模任务上达到6710亿参数大模型的性能。该方法保护模型原生推理能力,仅修改2.6%内容就实现显著提升,为AI优化建模应用大幅降低了技术门槛和成本。