全新的内部代工模式旨在释放更大价值。

近日,英特尔执行副总裁兼首席财务官 David Zinsner和英特尔公司副总裁兼企业规划事业部总经理 Jason Grebe介绍了英特尔的内部代工模式及其诸多优势。
英特尔正在拥抱其成立55年以来的重大业务转型。伴随着IDM 2.0转型的顺利进行,英特尔调整了其产品业务部门与制造部门间的合作方式。在全新的“内部代工模式”(internal foundry model)中,英特尔制造部门的损益(P&L)将单独核算,需要在性能和价格上参与竞争,英特尔的各产品业务部门则将能够自主选择是否与第三方代工厂进行合作。简而言之,英特尔的产品业务部门与制造部门的关系现在类似于客户和代工厂。
内部代工模式将确保英特尔在实现长期增长的同时提高效率、节约成本。一方面,内部代工模式能够推动英特尔实现在2023年节约30亿美元成本,在2025 年前节约80到100 亿美元成本的目标,另一方面,它也将助力英特尔达成非GAAP毛利率60%和营业利润率40%的长期增长目标。
此外,内部代工模式也会为英特尔代工服务的增长提供强大的助力。英特尔能够为客户分配专门的产能和有保障的供应渠道,并确保英特尔代工服务的公平性,保护客户的数据和知识产权(IP)。英特尔的先进制程节点最初将通过英特尔内部产品提升产量,将在很大程度上为英特尔代工服务的外部客户降低新制程的风险。
英特尔仍然将在2030年成为第二大外部代工厂作为自己的目标,也将始终保持产品部门和技术开发团队之间紧密而深入的联系,延续英特尔作为IDM公司的竞争优势。通过内部代工模式,英特尔能够为同时成为世界级的IDM公司和代工厂打下基础。
好文章,需要你的鼓励
尽管芯片厂商不断推出性能更强的神经处理单元,声称比上代产品快30-40%,但大多数AI功能仍依赖云端处理。专家指出,云端AI模型拥有数千亿参数,而手机NPU只能处理约30亿参数的模型。本地AI处理虽然在隐私保护和可靠性方面具有优势,但受限于内存容量和处理能力,目前主要应用于特定场景。业界正致力于优化模型压缩技术,实现云端与本地AI的混合处理模式。
NVIDIA联合多所高校开发的SpaceTools系统通过双重交互强化学习方法,让AI学会协调使用多种视觉工具进行复杂空间推理。该系统在空间理解基准测试中达到最先进性能,并在真实机器人操作中实现86%成功率,代表了AI从单一功能向工具协调专家的重要转变,为未来更智能实用的AI助手奠定基础。
Hammerspace通过现有NVMe存储最大化GPU使用率。随着AI计算在混合云和多云环境中扩展,基础设施团队面临着加速洞察时间同时最大化GPU投资的压力。Hammerspace Tier 0将GPU服务器集群内的本地NVMe存储转换为超高速共享存储层,性能比传统网络存储提升10倍,减少检查点时间,提高GPU使用率,改善推理响应时间,无需额外存储系统,节省数百万美元成本。
这项研究解决了现代智能机器人面临的"行动不稳定"问题,开发出名为TACO的决策优化系统。该系统让机器人在执行任务前生成多个候选方案,然后通过伪计数估计器选择最可靠的行动,就像为机器人配备智能顾问。实验显示,真实环境中机器人成功率平均提升16%,且系统可即插即用无需重新训练,为机器人智能化发展提供了新思路。