英特尔近日推出了两个处理器系列,旨在为工作站、用于运行模拟和数据科学软件等任务的高端Windows台式机提供动力。
第一个处理器阵容是至强W-2400系列,其中包括了8款芯片,主要针对标准的工作站。另一个是更先进的至强W-3400系列,其中包括7款面向高级工作站的芯片。

“我们全新的英特尔至强桌面工作站平台经过独特设计,旨在释放专业创作者、艺术家、工程师、设计师、数据科学家和高级用户的创新和创造力,以应对当今最苛刻的工作负载以及未来专业工作负载的需求,”英特尔副总裁、创作者和工作站解决方案总经理Roger Chandler表示。
英特尔此次推出速度最快的处理器是W9-3495X,它有多达56个核心,最高频率为4.8 GHz。W9-3495X和英特尔上一代工作站芯片相比,运行单线程应用的速度提高了28%,多线程性能提高了120%。
W9-3495X包含4个小芯片或者说计算模块,每个小芯片中包含多个核心。英特尔是分开生产制造小芯片的,然后使用EMIB技术将这些小芯片连接到一个处理器中,EMIB让英特尔能够以比市场上类似技术更具成本效益的方式制造处理器。
为了进行计算,CPU中的小芯片需要能够相互交换数据。制造商往往是通过将小芯片放置在名为中介层的矩形硅片上来满足这一要求的,其中包含了电线,通过电线可以在处理器的不同模块之间共享数据。
中介层可实现数据快速传输,从而有助于提高处理器性能,但是制造起来可能很困难,而且成本很高。英特尔全新的W9-3495X旗舰工作站芯片中所采用的EMIB技术解决了这个问题。
EMIB采用了微型内插器,比标准的EMIB技术更易制造。据英特尔称,结果就是降低了生产复杂性和成本。
英特尔W9-3495X芯片中的4个小芯片都是位于由EMIB技术提供支持的基础层上。基础层包含了一个嵌入式的微型插入器,让数据能够在小芯片之间移动,此外还包括了将电源从安装主板传输到处理器的电线。
据报道,英特尔的EMIB技术不适用于英特尔早期的工作站处理器,只是用于提高W9-3495X的速度的。英特尔还在该芯片中实施了许多其他方面的改进。
W9-3495X配置有105MB的L3缓存,可将数据保存在靠近其逻辑电路的位置,从而减少数据传输时间,最终可以提高性能。该芯片还采用了Intel Turbo Boost Max Technology 3.0,这种机制可以将处理器中最快的核心分配到运行那些要求苛刻的应用。
英特尔此次推出的其他几款芯片也采用了EBIM技术。其他支持还包括超频,也就是把处理器频率提高到默认最高速度以上。不仅如此,一些芯片还可以对计算机内存进行超频,以进一步提高性能。
W-3400系列中的7款芯片是英特尔此次推出的两个工作站处理器系列中速度最快的,提供了12到56个核心。低端的W-2400系列中的8款芯片提供了8到24个核心。
很多工作站不仅配置了CPU,还有GPU,用于加速渲染和加速机器学习应用。英特尔芯片经常是搭配Nvidia GPU一起使用的。今天早上,Nvidia宣布多家计算机制造商计划推出工作站采用了英特尔新发布的处理器和Nvidia RTX 6000 GPU的工作站产品。
RTX 6000包含了18176个CUDA核心,其作用类似于CPU中的处理核心。该芯片还具有经过优化可运行光线追踪渲染算法的电路。第三组专用电路也就是Tensor Cores,可用于加速人工智能应用。
Nvidia表示,一些工作站将提供选项,将RTX 6000与ConnectX-6 Dx SmartNIC芯片结合使用。后者主要用于在计算机之间移动数据等网络任务,让工作站用户能够更快速地下载和共享复杂的数据集。
好文章,需要你的鼓励
科技泡沫并非世界末日,从经济角度看,泡沫是押注过大导致供过于求。AI泡沫问题复杂在于AI软件开发节奏与数据中心建设周期的时间错配。甲骨文关联数据中心获180亿美元信贷,Meta承诺三年内投入6000亿美元基础设施。麦肯锡调查显示企业虽广泛使用AI但规模有限,多数仍持观望态度。微软CEO表示更担心数据中心空间不足而非芯片短缺,电力需求成为新瓶颈。
香港中文大学研究团队开发的Search-R3系统成功解决了大语言模型推理与搜索分离的问题,通过两阶段训练让AI在深度思考过程中直接生成搜索向量。该系统在多个领域测试中显著超越现有方法,特别是启用推理后性能提升明显,为AI系统设计提供了推理与搜索统一的新范式,展现了从专门化向通用化发展的重要方向。
Goodfire.ai研究人员首次发现AI语言模型中记忆和推理功能通过完全独立的神经通路运作。研究显示,移除记忆通路后,模型丧失97%的训练数据复述能力,但逻辑推理能力几乎完全保留。令人意外的是,算术运算与记忆共享神经通路而非推理通路,这可能解释了AI模型在数学方面的困难。该技术未来有望用于移除版权内容或敏感信息而不损害模型核心功能。
这项由ETH苏黎世等机构发表的突破性研究首次系统性揭示了优化器选择对AI模型量化性能的重大影响。研究团队发现传统的异常值理论完全失效,并开发了革命性的ABC分解框架来准确预测量化后性能。实验证明Shampoo优化器在量化场景下表现最优,该发现为AI模型的实际部署提供了重要指导,有望让AI技术在资源受限设备上发挥更大作用。