就在公布了推进下一代计算机芯片制造工艺的计划之后不到一周,英特尔就宣布推出两款基于英特尔现有最强大的芯片架构的新芯片平台。

此次推出的新芯片包括英特尔最新代号为Granite Rapids-D的至强处理器,将于2025年上市,以及Sierra Forest,将于今年下半年发布。除了这些芯片新品之外,英特尔还在当地时间周一早些时候在MWC 2024上宣布推出了新的边缘平台,旨在管理部署在网络边缘的基础设施、应用和人工智能工作负载。
英特尔表示,新的CPU将让客户能够利用AI和自动化带来的“新机遇”,有助于提高一系列下一代应用的总体拥有成本和运营效率,最终目标是让“AI无处不在”,以实现客户5G、边缘和企业基础设施的现代化。
Granite Rapids-D
Granite Rapids-D将帮助英特尔扩大在虚拟无线接入网络工作负载方面的领先地位,这款产品是建立在英特尔第四代至强处理器Intel Xeon Processors with Intel vRAN Boost所取得的成功基础上。
英特尔解释说,与上一代芯片相比,这些芯片让vRAN工作负载容量增加了一倍,使网络运营商能够将他们运营的蜂窝基站数量或可支持用户数量增加一倍,同时将vRAN计算功耗降低高达20%。
英特尔表示,Granite Rapids-D将显着提高性能,使客户能够降低vRAN成本,并在更广泛的全球范围内提供这些网络。据英特尔称,Granite Rapids-D将利用英特尔AVX for vRAN和集成的英特尔vRAN Boost加速功能来实现这些优势。
三星和爱立信等客户目前正在实验室对Granite Rapids-D芯片进行样品测试。此外,英特尔还和戴尔、HPE、联想、Red Hat等合作伙伴进行合作,确保为明年的发布及时做好市场准备。
在Granite Rapids-D首次亮相之前,英特尔将向部分合作伙伴发布vRAN AI开发套件,以抢先体验。据称,vRAN AI开发套件可以帮助这些客户针对运行在通用服务器上的vRAN用途构建、训练、优化和部署AI模型。
这样,客户就可以利用现有的vRAN网络架构来支持新的AI工作负载。英特尔表示,vRAN AI开发套件中的优化AI模型可以与英特尔第四代英特尔至强处理器相结合,帮助客户构建AI驱动的网络,这种网络可以动态重新配置以优化成本并支持新的收入来源。
Sierra Forest
尽管客户需要等待一段时间才能获得Granite Rapids-D芯片,但是英特尔表示,Sierra Forest处理器将提前在今年上半年推出。
英特尔承诺,Sierra Forest芯片将配备多达288个核心,利用英特尔最新的E-core技术帮助vRAN网络运营商将5G工作负载的每机架性能提升2.7倍。
此外,Sierra Forest CPU还将配备去年首次推出的Intel Infrastructure Power Manager软件更新版本,该软件让客户可以利用内置遥测技术来降低功耗,而不会导致关键性能指标的降低,例如吞吐量、延迟和丢包。
英特尔表示,包括英国电信集团、戴尔、爱立信、HPE、联想、KDDI和SK Telecom在内的网络运营商和生态系统合作伙伴都对这款新芯片和Power Manager软件表现出了浓厚的兴趣。
Intel Edge Platform
最后英特尔表示,将利用过去10年销售的90000多个边缘部署和2亿个处理器的庞大安装基础,帮助客户利用在网络边缘部署AI所带来的新机遇。
英特尔详细介绍了这款新的Edge Platform,该平台将使客户能够利用网络边缘生成的大量数据,使用这些信息来增强客户体验并通过自动化扩展业务运营。
英特尔在宣传中表示,Intel Edge Platform平台是一个模块化的开放软件平台,将让企业能够更轻松地开发、部署、运行和管理边缘和AI应用,并具有类似云的简单性。据称,该平台支持异构组件,可以降低总体拥有成本,实现边缘基础设施和应用的零接触、基于策略的管理,以及边缘的AI工作负载,还将通过OpenVINO推理支持AI运行时,以实现跨客户基础设施的实时AI推理优化和动态工作负载放置。
据英特尔称,开发人员将能够使用Edge Platform平台来微调应用编排,以便他们可以远程地将延迟敏感型工作负载放置在最优化的设备上,以确保获得最佳的应用性能。该平台还将支持低代码和高代码AI模型,以及具有从边缘到云混合功能的应用开发。反过来,这将帮助开发人员创建横向的边缘服务,例如用于构建新AI模型的数据注释,以及用于视频、时间序列数据和数字孪生等应用的垂直行业特定服务。
英特尔表示,Intel Edge Platform将在该季度末之前全面上市。
好文章,需要你的鼓励
很多人担心被AI取代,陷入无意义感。按照杨元庆的思路,其实无论是模型的打造者,还是模型的使用者,都不该把AI放在人的对立面。
MIT研究团队提出递归语言模型(RLM),通过将长文本存储在外部编程环境中,让AI能够编写代码来探索和分解文本,并递归调用自身处理子任务。该方法成功处理了比传统模型大两个数量级的文本长度,在多项长文本任务上显著优于现有方法,同时保持了相当的成本效率,为AI处理超长文本提供了全新解决方案。
谷歌宣布对Gmail进行重大升级,全面集成Gemini AI功能,将其转变为"个人主动式收件箱助手"。新功能包括AI收件箱视图,可按优先级自动分组邮件;"帮我快速了解"功能提供邮件活动摘要;扩展"帮我写邮件"工具至所有用户;支持复杂问题查询如"我的航班何时降落"。部分功能免费提供,高级功能需付费订阅。谷歌强调用户数据安全,邮件内容不会用于训练公共AI模型。
华为研究团队推出SWE-Lego框架,通过混合数据集、改进监督学习和测试时扩展三大创新,让8B参数AI模型在代码自动修复任务上击败32B对手。该系统在SWE-bench Verified测试中达到42.2%成功率,加上扩展技术后提升至49.6%,证明了精巧方法设计胜过简单规模扩展的技术理念。