英特尔公司CEO Pat Gelsinger
本周一,我有幸与英特尔公司CEO Pat Gelsinger进行了面对面交流,希望了解芯片巨头在制造、技术与产品路线图方面的最新战略信息。先来做个总结,Gelsinger的表述让我个人有充分的理由相信,只要英特尔能够把各项计划执行到位,回归正轨将只是时间问题。
IDM 2.0战略新闻
英特尔此次发布的主要内容有:
分析师观点
坦诚直接的Gelsinger
在这里,我首先要感谢Gelsinger诚恳而直接的态度。他开诚布公地表示,正是由于之前10纳米制程的缺失,才导致英特尔在7纳米阶段别无选择。在谈话中,Gelsinger还用到了“困境”和“尴尬”等字眼,这也让我卸下压力,更轻松地谈论关于英特尔的那些“敏感”话题。Gelsinger解释了10纳米制程方面的问题,包括其中大量远超想象的变量、良品率不足等等,这直接导致产品发布计划推迟了五年。他还谈到英特尔在EUV技术方面的不足,虽然芯片巨头为此投入极大,但台积电却率先实现了生产级应用。我非常赞赏Gelsinger这种包容开放的态度,于是我们又探讨了更多深层内容。
英特尔7纳米计划与2023年发展目标
我对英特尔的7纳米计划颇有信心,因为芯片巨头显然是在不断修订自己的路线、引入EUV光刻技术,希望在简化制造工艺的同时提高生产效率。尽管7纳米Meteor Lake要到2023年才能批量生产,但英特尔已经决定在同年积极接洽外部代工厂。希望英特尔能够将部分旗舰级产品交由台积电生产,借此机会逐步提升自有代工设施的运行密度与市场竞争力。另外,我个人也期待看到AMD与英特尔如何争夺台积电的3纳米产能资源。
200亿美元仅仅只是开始
一口气砸下200亿美元建设资金确实相当大胆,英特尔希望借此支撑自家英特尔代工服务。但考虑到美国及欧洲各国政府提出的领先技术在岸制造要求,Gelsinger和英特尔董事会显然是对这项计划经过了深思熟虑,否则根本不可能突然出手。根据介绍,这笔资金完全由英特尔自行承担,这当然能让芯片巨头拥有更灵活的行动空间;但如果能够获得美国及欧盟的资金支持,加快建设制造产能似乎也不是什么坏事。
英特尔代工服务前途光明
英特尔对于代工服务业务表现出了严肃的态度,我也坚信英特尔拥有做成这件大事的决心,建立起我认为“真正的”代工体系。这也是我第一次看到英特尔认真采用Cadence与Synopsys标准PKD模型、标准设计规则与工具,用以兼容台积电、三星、UMC以及GLobalFoundries等其他代工服务商的设计成果。
在知识产权(IP)方面,对我来说唯一的惊喜只有RISC-V。很明显,RISC-V是对X86、图形、显示器、AI与ARM IP组合的补充。虽然我不太了解英特尔设计师与ARM之间有哪些法律协议,但我认为如果像高通这样的ARM许可方打算借助英特尔代工服务的产能制造ARM架构芯片,应该不需要获得ARM方面的批准。另外提一句,英特尔本身也是ARM的授权许可企业。
在未来几年中,美国和欧盟很可能强制要求某些政府机构、金融甚至是医疗保健行业只能使用在本土生产的芯片产品。当然,位于亚利桑那州的台积电工厂与位于奥斯汀的三星工厂可能不受限制,但这方面要求至少会给英特尔带来不少优势。
总结
受到10纳米芯片的影响,过去几年来英特尔面临不少挑战。不过英特尔仍然占据着90%的服务器市场与80%的PC市场份额,同时也在快速增长的汽车及物联网等次级市场上持续保持发展。可以肯定的是,此次公布的不少项目应该早在上任CEO Bob Swan任期内就已经敲定,但Gelsinger显然也把自己的风格牢牢印在这些计划当中。他强大的人格魅力,让我找回了多年来很难在英特尔身上感受到的技术规划野心、实践执行力度与开放包容态度。Gelsinger已经做出了正确的选择,只要能够落实到位,相信我们熟悉的那位芯片巨头终将回归。
好文章,需要你的鼓励
随着AI模型参数达到数十亿甚至万亿级别,工程团队面临内存约束和计算负担等共同挑战。新兴技术正在帮助解决这些问题:输入和数据压缩技术可将模型压缩50-60%;稀疏性方法通过关注重要区域节省资源;调整上下文窗口减少系统资源消耗;动态模型和强推理系统通过自学习优化性能;扩散模型通过噪声分析生成新结果;边缘计算将数据处理转移到网络端点设备。这些创新方案为构建更高效的AI架构提供了可行路径。
清华大学团队开发了CAMS智能框架,这是首个将城市知识大模型与智能体技术结合的人类移动模拟系统。该系统仅需用户基本信息就能在真实城市中生成逼真的日常轨迹,通过三个核心模块实现了个体行为模式提取、城市空间知识生成和轨迹优化。实验表明CAMS在多项指标上显著优于现有方法,为城市规划、交通管理等领域提供了强大工具。
Meta以143亿美元投资Scale AI,获得49%股份,这是该公司在AI竞赛中最重要的战略举措。该交易解决了Meta在AI发展中面临的核心挑战:获取高质量训练数据。Scale AI创始人王亚历山大将加入Meta领导新的超级智能研究实验室。此次投资使Meta获得了Scale AI在全球的数据标注服务,包括图像、文本和视频处理能力,同时限制了竞争对手的数据获取渠道。
MIT研究团队发现了一个颠覆性的AI训练方法:那些通常被丢弃的模糊、失真的"垃圾"图片,竟然能够训练出比传统方法更优秀的AI模型。他们开发的Ambient Diffusion Omni框架通过智能识别何时使用何种质量的数据,不仅在ImageNet等权威测试中创造新纪录,还为解决AI发展的数据瓶颈问题开辟了全新道路。