近日,MLCommons公布了针对AI推理的MLPerf v4.0基准测试结果。与第四代至强在MLPerf推理v3.1基准测试中的结果相比,第五代至强的测试结果平均提升1.42倍。
其中,针对具备连续批处理(continuous batching)等软件优化的GPT-J模型,与v3.1的测试结果相比,第五代至强的性能提升约1.8倍;同样,得益于MergedEmbeddingBag以及基于英特尔AMX的其他优化,DLRMv2的测试结果显示出约1.8倍的性能提升和99.9的准确率。
与此同时,英特尔非常自豪地与包括思科、戴尔、广达、Supermicro和纬颖科技在内的广大OEM伙伴们展开合作,助力其提交基于自身产品的MLPerf测试结果。英特尔不仅于2020年开始提交基于第四代至强的测试结果,同时至强可扩展处理器亦是参与MLPerf测试的产品中,众多加速器的主机CPU。
此外,第五代至强可在英特尔®开发者云平台上进行评估。该环境中,用户可以进行小型及大规模AI训练(譬如大语言模型或生成式AI)、运行大规模的推理工作负载,以及管理AI计算资源等。
截至目前,英特尔仍是唯一一家提交MLPerf测试结果的CPU厂商。英特尔产品迄今为止在多轮MLPerf基准测试中均所展示出领先的训练及推理性能,该测试结果亦为客户树立了可用于评估产品AI性能的行业标准。
之所以能取得这样的成绩,得益于英特尔®高级矩阵扩展(英特尔® AMX),这也彰显了英特尔致力于通过丰富且具有竞争力的解决方案推动 “AI无处不在”的承诺。
英特尔公司副总裁兼数据中心与人工智能事业部产品管理总经理Zane Ball表示:“我们将持续提升CPU和加速器等广泛产品组合在行业基准测试中的AI性能。此次全新的MLCommons结果显示,我们提供的AI解决方案能够满足客户不断变化、多样化的AI需求。同时,至强处理器也为客户提供了可快速实现AI部署,且极具性价比的选择。”
第五代英特尔®至强®可扩展处理器
好文章,需要你的鼓励
Docker公司通过增强的compose框架和新基础设施工具,将自己定位为AI智能体开发的核心编排平台。该平台在compose规范中新增"models"元素,允许开发者在同一YAML文件中定义AI智能体、大语言模型和工具。支持LangGraph、CrewAI等多个AI框架,提供Docker Offload服务访问NVIDIA L4 GPU,并与谷歌云、微软Azure建立合作。通过MCP网关提供企业级安全隔离,解决了企业AI项目从概念验证到生产部署的断层问题。
哈佛大学研究团队开发出LangSplatV2系统,实现了超高速3D语言查询功能。该系统通过创新的稀疏编码技术和高效渲染算法,将3D场景语言理解速度提升了47倍,达到每秒384帧的实时处理能力。系统采用全局语义字典和稀疏系数表示,彻底解决了传统方法中解码器速度瓶颈问题,为AR/VR、智能机器人等应用提供了强大的技术基础。
马斯克的AI女友"Ani"引爆全球,腾讯RLVER框架突破情感理解边界:AI下半场竞争核心已转向对人性的精准把握。当技术学会共情,虚拟陪伴不再停留于脚本应答,而是通过"心与心的循环"真正理解人类孤独——这背后是强化学习算法与思考模式的化学反应,让AI从解决问题转向拥抱情感。
马里兰大学研究团队提出了CoLa(Chain-of-Layers)方法,让AI模型能够根据任务难度动态调整内部层的使用策略,实现"快思考"和"慢思考"的灵活切换。通过蒙特卡洛树搜索算法,该方法在推理任务上显著提升了模型的准确性和效率,为75%的正确答案找到了更短的处理路径,并纠正了60%的错误答案,为AI模型的架构优化开辟了新方向。