公司高管承认,好不容易再次建立的服务器芯片领先优势正在缩小
尽管英特尔已经明确将英伟达列为下一代至强Scalable处理器的主要客户,但x86巨头日前承认,服务器芯片的全面出货恐怕要推迟到今年晚些时候。
英特尔数据中心业务负责人Sandra Rivera在周二美国银行证券2022年全球技术大会的小组讨论中,证实了代号为Sapphire Rapids的至强处理器将推迟出货。同一天早些时候,英伟达公司CEO也在会上透露,GPU巨头将在旗舰级DGX H100系统中使用Sapphire Rapids、而非AMD即将推出的Genoa芯片,这与上代系统恰好相反。
英特尔一直在努力宣传Sapphire Rapids这款下一代至强CPU,希望能让自己在过去几年技术落后于AMD的窘境下找回一点排面。事实上,英特尔甚至希望这款新处理器能凭借对DDR5、PCIe Gen 5和Compute Express Link等新技术的率先支持,在市场上全面压制住AMD的下一代Epyc芯片Genoa。
然而,Sapphire Rapids的面世之路并不顺遂。去年6月,英特尔表示将把芯片的量产从2021年第四季度推迟至2022年第一季度,并计划在第二季度增加出货量。结合前几年英特尔迟迟无法成功量产10纳米节点芯片的困境,这一消息再次影响到市场对于芯片巨头的信心。
在本周二的大会上,Rivera表示英特尔目前的计划是“推迟计划,在今年晚些时候”提高Sapphire Rapids的产量。她解释道,造成延迟的主要原因是“新增平台和产品还需要时间来验证”,这也跟之前的10纳米难产对得上。
这位高管还谨慎地指出,出货延后并不是因为Sapphire Rapids的10纳米先进节点有什么问题(英特尔已经于去年将此制程更名为Intel 7,强调此工艺已经能够等同于台积电、三星等代工竞争对手的7纳米制程)。相反,她强调英特尔面向个人电脑和笔记本设备的Alder Lake芯片已经于去年秋季首次亮相,足以证明Intel 7制程并无问题。
Rivera重申了英特尔之前的说法,即Sapphire Rapids在推出后将立即“领先”。但她同时承认,这款CPU的领先周期要比预期更短,毕竟出货延迟意味着有可能跟AMD今年晚些时候推出的Geona芯片撞个正着。换言之,好不容易得来的先发优势很可能变成并驾齐驱。
她表示,“根据最初做出的产品发布及指生产预期,我们本来希望能打出更长的时间差、保持一段时间的领先优势。但由于我们需要进行额外的平台验证,所以这段窗口期有所缩短。Sapphire Rapids仍然领先,只是拉开的差距不及原计划。”
根据最初做出的产品发布及指生产预期,我们本来希望能打出更长的时间差、保持一段时间的领先优势。
尽管出货延后,Rivera仍然强调市场对Sapphire Rapids表现出了“旺盛的需求”。服务器制造商和超大规模服务商已经收到了用于产品验证的芯片样品。但她也坦言,“并非所有客户都愿意转而使用Sapphire”。
英伟达这样的计算密集型企业,当然愿意为了支持DDR5、更高的性能和更优的总体拥有成本而选择最新这代Sapphire Rapids。但Rivera承认2021年初公布的Ice Lake仍拥有“强大的价值与计算能力”,所以继续得到不少客户的青睐。
她指出,“Ice Lake还在继续增长。我们在2021年第四季度创下收入历史纪录,今年第一季度收入和销量双双再创新高。随着今年晚些时候推出Sapphire,Ice Lake应该会在2022年迎来销量峰值,之后有所下降。”
Rivera还重申了英特尔的计划,即在2023年下半年公布Sapphire Rapids的后续芯片Emerald Rapids,并表示后者将“在内存、网络和整体性能方面带来良好提升”,且插槽结构保持不变。
也就是说,Emerald Rapids“对客户来说将是一款易于升级的产品”,也将为他们“基于之前的平台和创新投资获得更大的回报。”
我们认为,AMD公司肯定会在周四直播的金融分析师会议上公布Genoa和未来几代Epyc芯片的更新。在今年5月的更新中,AMD公司芯片设计师已经表示,Genoa有望在今年下半年至年末期间推出。
值得注意的是,AMD还不是英特尔在数据中心CPU领域面临的唯一威胁。目前,亚马逊云科技和Ampere Computing等公司均拿出了号称优于英特尔芯片的Arm架构新处理器,英伟达也计划在2023年上半年推出其首款基于Arm架构的服务器芯片Grace。
Rivera表示,目前Arm芯片在服务器市场的份额还“相当有限”。但她也承认,云服务商对这种有望替代英特尔至强芯片的全新处理器架构抱有浓厚兴趣。正因为如此,x86巨头才决定在2024年推出其使用高效核心设计的Sierra Forest芯片。
“很多云客户并不在意附加功能,而更多关注特定核心类型的工作负载执行效率。他们需要的只是密度更高的吞吐量、单线程性能,而且想要投入大量核心处理某些特定工作内容。”
好文章,需要你的鼓励
传统数据工程面临数据质量差、治理不善等挑战,成为AI项目的最大障碍。多智能体AI系统通过协作方式正在彻底改变数据准备、治理和应用模式。Google Cloud基于Gemini大语言模型构建协作生态系统,让不同智能体专门负责数据工程、科学、治理和分析等任务。系统通过分层架构理解组织环境,自主学习历史工作流程,能够预防问题并自动处理重复性任务,大幅提升效率。
中科大团队开发出LongAnimation系统,解决了长动画自动上色中的色彩一致性难题。该系统采用动态全局-局部记忆机制,能够为平均500帧的动画进行稳定上色,性能比现有方法提升35-58%。核心创新包括SketchDiT特征提取器、智能记忆模块和色彩优化机制,可大幅提升动画制作效率。
微软推出Copilot调优功能,让企业通过低代码工具利用自动化微调技术训练企业数据。与基于公开数据的通用AI模型不同,企业需要理解内部数据和流程的专业化模型。Gartner预测专业化GenAI模型市场将在2026年翻倍至25亿美元。这些模型通常基于开源模型构建,部署为小语言模型,提供更好的成本控制和数据安全性,同时更易符合欧盟AI法案要求。
南开大学团队开发出DepthAnything-AC模型,解决了现有AI距离估算系统在恶劣天气和复杂光照条件下性能下降的问题。通过创新的扰动一致性训练框架和空间距离约束机制,该模型仅用54万张图片就实现了在雨雪、雾霾、夜晚等复杂环境下的稳定距离判断,同时保持正常条件下的优秀性能,为自动驾驶和机器人导航等应用提供了重要技术支撑。