英特尔公司CEO Pat Gelsinger
本周一,我有幸与英特尔公司CEO Pat Gelsinger进行了面对面交流,希望了解芯片巨头在制造、技术与产品路线图方面的最新战略信息。先来做个总结,Gelsinger的表述让我个人有充分的理由相信,只要英特尔能够把各项计划执行到位,回归正轨将只是时间问题。
IDM 2.0战略新闻
英特尔此次发布的主要内容有:
分析师观点
坦诚直接的Gelsinger
在这里,我首先要感谢Gelsinger诚恳而直接的态度。他开诚布公地表示,正是由于之前10纳米制程的缺失,才导致英特尔在7纳米阶段别无选择。在谈话中,Gelsinger还用到了“困境”和“尴尬”等字眼,这也让我卸下压力,更轻松地谈论关于英特尔的那些“敏感”话题。Gelsinger解释了10纳米制程方面的问题,包括其中大量远超想象的变量、良品率不足等等,这直接导致产品发布计划推迟了五年。他还谈到英特尔在EUV技术方面的不足,虽然芯片巨头为此投入极大,但台积电却率先实现了生产级应用。我非常赞赏Gelsinger这种包容开放的态度,于是我们又探讨了更多深层内容。
英特尔7纳米计划与2023年发展目标
我对英特尔的7纳米计划颇有信心,因为芯片巨头显然是在不断修订自己的路线、引入EUV光刻技术,希望在简化制造工艺的同时提高生产效率。尽管7纳米Meteor Lake要到2023年才能批量生产,但英特尔已经决定在同年积极接洽外部代工厂。希望英特尔能够将部分旗舰级产品交由台积电生产,借此机会逐步提升自有代工设施的运行密度与市场竞争力。另外,我个人也期待看到AMD与英特尔如何争夺台积电的3纳米产能资源。
200亿美元仅仅只是开始
一口气砸下200亿美元建设资金确实相当大胆,英特尔希望借此支撑自家英特尔代工服务。但考虑到美国及欧洲各国政府提出的领先技术在岸制造要求,Gelsinger和英特尔董事会显然是对这项计划经过了深思熟虑,否则根本不可能突然出手。根据介绍,这笔资金完全由英特尔自行承担,这当然能让芯片巨头拥有更灵活的行动空间;但如果能够获得美国及欧盟的资金支持,加快建设制造产能似乎也不是什么坏事。
英特尔代工服务前途光明
英特尔对于代工服务业务表现出了严肃的态度,我也坚信英特尔拥有做成这件大事的决心,建立起我认为“真正的”代工体系。这也是我第一次看到英特尔认真采用Cadence与Synopsys标准PKD模型、标准设计规则与工具,用以兼容台积电、三星、UMC以及GLobalFoundries等其他代工服务商的设计成果。
在知识产权(IP)方面,对我来说唯一的惊喜只有RISC-V。很明显,RISC-V是对X86、图形、显示器、AI与ARM IP组合的补充。虽然我不太了解英特尔设计师与ARM之间有哪些法律协议,但我认为如果像高通这样的ARM许可方打算借助英特尔代工服务的产能制造ARM架构芯片,应该不需要获得ARM方面的批准。另外提一句,英特尔本身也是ARM的授权许可企业。
在未来几年中,美国和欧盟很可能强制要求某些政府机构、金融甚至是医疗保健行业只能使用在本土生产的芯片产品。当然,位于亚利桑那州的台积电工厂与位于奥斯汀的三星工厂可能不受限制,但这方面要求至少会给英特尔带来不少优势。
总结
受到10纳米芯片的影响,过去几年来英特尔面临不少挑战。不过英特尔仍然占据着90%的服务器市场与80%的PC市场份额,同时也在快速增长的汽车及物联网等次级市场上持续保持发展。可以肯定的是,此次公布的不少项目应该早在上任CEO Bob Swan任期内就已经敲定,但Gelsinger显然也把自己的风格牢牢印在这些计划当中。他强大的人格魅力,让我找回了多年来很难在英特尔身上感受到的技术规划野心、实践执行力度与开放包容态度。Gelsinger已经做出了正确的选择,只要能够落实到位,相信我们熟悉的那位芯片巨头终将回归。
好文章,需要你的鼓励
三星与AI搜索引擎Perplexity合作,将其应用引入智能电视。2025年三星电视用户可立即使用,2024和2023年款设备将通过系统更新获得支持。用户可通过打字或语音提问,Perplexity还为用户提供12个月免费Pro订阅。尽管面临版权争议,这一合作仍引发关注。
浙江大学团队提出动态专家搜索方法,让AI能根据不同问题灵活调整内部专家配置。该方法在数学、编程等任务上显著提升推理准确率,且不增加计算成本。研究发现不同类型问题偏爱不同专家配置,为AI推理优化开辟新路径。
苹果M5 MacBook Pro评测显示这是一次相对较小的升级。最大变化是M5芯片,CPU性能比M4提升约9%,多核性能比M4 MacBook Air快19%,GPU性能提升37%。功耗可能有所增加但电池续航保持24小时。评测者认为该产品不适合M4用户升级,但对使用older型号用户仍是强有力选择。
清华大学研究团队提出SIRI方法,通过"压缩-扩张"交替训练策略,成功解决了大型推理模型"话多且准确率低"的问题。实验显示,该方法在数学竞赛题上将模型准确率提升43.2%的同时,输出长度减少46.9%,真正实现了效率与性能的双重优化,为AI模型训练提供了新思路。