英特尔今天宣布推出了新版本的Xeon Scalable服务器处理器,以及两款专门用于为企业技术基础设施其他部分提供支持的产品。
作为这次产品升级的一部分,英特尔计划向市场推出不少于56款芯片型号,其中最高端的是Xeon Platinum 9200,该处理器将提供三个版本,最高配版本采用56个核心,基本频率2.6GHz,最高可达到3.8GHz。
Platinum 9200是对英特尔早期处理器的一次重大升级。英特尔数据中心群组负责人Navin Shenoy表示,与上一代Xeon Scalable处理器相比,Platinum 9200的计算能力平均提高了33%。这是一次重大的飞跃,尤其是这两代处理器都是基于相同的14纳米制造工艺。
今天推出的其他至强处理器型号配置8到28个核心不等。包括Platinum 9200在内的所有新处理器都采用了Deep Learning Boost新技术,该技术引入了对机器语言的扩展,让芯片利用这种语言表达处理任务,使其运行人工智能模型的速度远超过早期版本。
英特尔至强产品线副总裁Lisa Spelman在一篇博客文章中写道:“软硬件的改进,意味着这次新推出的英特尔Xeon Scalable平台与2017年7月发布的第一代平台相比,深度学习推理性能提升高达14倍。此外,我们通过至强Platinum 9200处理器家族,让这一性能再翻一番。”
在这个升级的处理器家族中,英特尔还添加了一个全新的Agilex芯片系列,它包含了FPGA以及可以加载针对应用进行优化的定制处理器。
该芯片将采用10纳米工艺,比至强产品线所基于的14纳米工艺更新、更高效,这一点在Agilex规格表中清楚地反映出来。英特尔称,企业可以将该芯片配置为比早期FPGA的计算能力提高40%,或者减少40%。
英特尔认为Agilex系列适用于广泛的用例。英特尔称,Agilex芯片可以为服务器处理器提供外部速度提升,支持网络设备并提供在网络边缘运行的设备,后者是英特尔特别关注的一个市场。英特尔为边缘设备制造商提供了几种不同的处理器,今天也作为更广泛的产品组合更新的一部分进行了扩展。英特尔还将推出一款名为至强D-1600的片上系统系列,该系列有着紧凑的、高能效的外形,提供2至8个处理核心。
好文章,需要你的鼓励
Docker公司通过增强的compose框架和新基础设施工具,将自己定位为AI智能体开发的核心编排平台。该平台在compose规范中新增"models"元素,允许开发者在同一YAML文件中定义AI智能体、大语言模型和工具。支持LangGraph、CrewAI等多个AI框架,提供Docker Offload服务访问NVIDIA L4 GPU,并与谷歌云、微软Azure建立合作。通过MCP网关提供企业级安全隔离,解决了企业AI项目从概念验证到生产部署的断层问题。
哈佛大学研究团队开发出LangSplatV2系统,实现了超高速3D语言查询功能。该系统通过创新的稀疏编码技术和高效渲染算法,将3D场景语言理解速度提升了47倍,达到每秒384帧的实时处理能力。系统采用全局语义字典和稀疏系数表示,彻底解决了传统方法中解码器速度瓶颈问题,为AR/VR、智能机器人等应用提供了强大的技术基础。
马斯克的AI女友"Ani"引爆全球,腾讯RLVER框架突破情感理解边界:AI下半场竞争核心已转向对人性的精准把握。当技术学会共情,虚拟陪伴不再停留于脚本应答,而是通过"心与心的循环"真正理解人类孤独——这背后是强化学习算法与思考模式的化学反应,让AI从解决问题转向拥抱情感。
马里兰大学研究团队提出了CoLa(Chain-of-Layers)方法,让AI模型能够根据任务难度动态调整内部层的使用策略,实现"快思考"和"慢思考"的灵活切换。通过蒙特卡洛树搜索算法,该方法在推理任务上显著提升了模型的准确性和效率,为75%的正确答案找到了更短的处理路径,并纠正了60%的错误答案,为AI模型的架构优化开辟了新方向。