英特尔今天宣布升级旗舰级至强服务器处理器产品线,超过36款基于最新10纳米制程工艺的芯片新品,并提供了包括高速人工智能加速器在内的一系列特性。
此次发布的芯片代号为“Ice Lake”,是英特尔近期对服务器处理器家族最大规模的一次更新。这些芯片将为主流公有云的下一代实例、新型超级计算机和高速5G基础设施等系统提供动力。
英特尔高级副总裁、数据平台事业部总经理Navin Shenoy在今天的线上发布会表示:“未来数据中心将与今天截然不同,现在英特尔打造了企业所需的每一个组件。”
Ice Lake系列被Shenoy称为“我们有史以来最伟大的处理器”,可将每个时钟周期可执行指令数量提高20%,而这是衡量芯片性能的一项关键指标。这一提升主要是由于该系列采用了所谓Sunny Lake的新核心设计。英特尔将不少于40个这种Sunny Lakes核心封装到性能最高的Ice Lake CPU——至强Platinum 8380中,可以在2.3GHz基本频率下支持80个线程。
英特尔表示,此次推出的芯片与上一代服务器CPU相比,有望将“主流数据中心工作负载”的平均速度提高46%。与推出有5年时间的服务器相比,基于Ice Lake的系统将把计算速度提高260%。
每个时钟周期指令数量增加20%,这只是Ice Lake带来的性能提升之一。英特尔的芯片设计人员还增加了板载缓存的空间。板载缓存是一种内存电路,CPU将正在处理中的数据保存在板载缓存中。内存电路越多,一次性可处理的数据就越多。与上一代至强芯片相比,基于Sunny Core的Ice Lake系列的L1缓存空间增加了50%,L2二级缓存空间增加25%。
与此同时,英特尔提高了CPU从RAM获取数据的速度。与上一代至强芯片相比最显着的改进是,所有Ice Lake处理器都有8个内存通道。这意味着可以一次向RAM传输更多数据。
高端至强Platinum 8380还通过支持新的PCIe 4.0硬件互连技术,可以从其他类型的外围硬件(例如图形卡、网络设备和闪存)中更快地获取信息。PCIe 4.0的速度是上一代PCIe 3.0的2倍。
Moor Insights&Strategy总裁兼首席分析师Patrick Moorhead表示:“在市场竞争激烈的背景下,英特尔凭借其第三代至强处理器不断领先。英特尔提供了一种平台方法,为合作伙伴提供了融合CPU、存储、内存、FPGA和网络ASIC的解决方案。这是对英特尔利用资源进行联合营销和共同开发的能力的一个补充。”
英特尔向服务器制造商等合作伙伴主打的另一项Ice Lake亮点是它附带的一组专门处理功能,主要用于增强网络安全和人工智能应用,这些应用使用与标准工作负载不同的数学运算方法来处理数据。
在网络安全方面,旗舰级至强Platinum 8380和其他高端Ice Lake芯片附带了所谓SGX的内存隔离技术,可以让CPU将服务器RAM的一部分转换成“安全区域”,用于保存加密密钥之类的敏感数据。在同一台服务器上运行的其他应用是无法访问这个安全区域中的数据的,即使这些应用对这台服务器拥有完全访问权限。
而且由于Ice Lake芯片中内置了一系列复杂的软件算法,这使得AES、SHA和GFNI等通用加密算法在此芯片上运行的速度会更快,一部分原因是英特尔并行化了一些加密操作,以使其能够并行运行,而不是顺序运行。英特尔的工程师还找到了一种方法,可以在实例中将两个独立的算法压缩到一个工作流程中,以减少处理需求。
对于使用AI模型的应用来说,Ice Lake提供了英特尔DL Boost机器学习加速器,这是这次发布的主要亮点之一,英特尔承诺AI性能将比上一代芯片提高74%,速度比竞争对手AMD的EPYC 7763 CPU快150%。英特尔通过对比两款处理器运行20种主流AI工作负载之后得到了这一数据。
Moorhead认为:“与实力最接近的竞争对手相比,英特尔凭借片上机器学习推理和加密功能脱颖而出。”
尽管Ice Lake直到今天才正式发布,但英特尔实际上已经向早期客户售卖了200,000多个,英特尔称这些芯片主要是被领先的云服务提供商(他们正在打造基于Ice Lake的新实例)、高性能计算实验室和服务器制造商所采购。不少电信设备制造商也在等待购买Ice Lake芯片,一部分原因是该系列中有多款处理器是专门面向运营商的,并针对5G基础设施进行了优化。
好文章,需要你的鼓励
北京大学研究团队开发出基于RRAM芯片的高精度模拟矩阵计算系统,通过将低精度模拟运算与迭代优化结合,突破了模拟计算的精度瓶颈。该系统在大规模MIMO通信测试中仅需2-3次迭代就达到数字处理器性能,吞吐量和能效分别提升10倍和3-5倍,为后摩尔时代计算架构提供了新方向。
普拉大学研究团队开发的BPMN助手系统利用大语言模型技术,通过创新的JSON中间表示方法,实现了自然语言到标准BPMN流程图的自动转换。该系统不仅在生成速度上比传统XML方法快一倍,在流程编辑成功率上也有显著提升,为降低业务流程建模的技术门槛提供了有效解决方案。
谷歌宣布已将约3万个生产软件包移植到Arm架构,计划全面转换以便在自研Axion芯片和x86处理器上运行工作负载。YouTube、Gmail和BigQuery等服务已在x86和Axion Arm CPU上运行。谷歌开发了名为CogniPort的AI工具协助迁移,成功率约30%。公司声称Axion服务器相比x86实例具有65%的性价比优势和60%的能效提升。
北京大学联合团队发布开源统一视频模型UniVid,首次实现AI同时理解和生成视频。该模型采用创新的温度模态对齐技术和金字塔反思机制,在权威测试中超越现有最佳系统,视频生成质量提升2.2%,问答准确率分别提升1.0%和3.3%。这项突破为视频AI应用开辟新前景。