2月25日,英特尔发布两大全新以太网产品线——英特尔以太网控制器E830和网络适配器,以及英特尔以太网控制器E610和网络适配器,旨在满足企业、电信、云、边缘、科学计算(HPC)和AI等领域日益增长的需求。这些新一代解决方案可以提供强劲的高性能连接,同时提升能效与安全性,并降低总体拥有成本(TCO)。
英特尔公司网络与边缘事业部副总裁Bob Ghaffari表示:“在万物互联的今天,网络对于商业成功和技术转型至关重要。随着英特尔以太网E830和E610产品的推出,我们正在帮助客户满足对高性能、高能效解决方案日益增长的需求,这些解决方案能够优化网络基础设施,降低运营成本并改善总体拥有成本(TCO)。”
通过将英特尔至强6处理器与高性能的以太网连接相结合,英特尔全新以太网解决方案将为可扩展的数据密集型应用奠定基础,助力企业加速创新、降低成本并赢得竞争优势。得益于制程节点与以太网技术的新进展,英特尔以太网E830和E610系列在数据中心和边缘环境中的每瓦性能与安全性实现显著提升。
以太网技术始终是现代网络基础设施的核心。随着AI、虚拟无线接入网(vRAN)、5G云计算、边缘及物联网(IoT)应用推动着数据与连接的需求增长,英特尔的以太网解决方案经过专门设计,可提供满足这些持续演进的需求所需的性能、可扩展性与安全性。
英特尔以太网控制器E830和网络适配器能够优化高密度的虚拟化工作负载,提供灵活的端口配置、出色的时间同步能力与卓越的安全功能;英特尔以太网控制器E610和网络适配器则针对控制平面操作提供了理想的解决方案,具备出色的可管理性与卓越的能效表现。
英特尔以太网E830系列:高性能和多功能连接
英特尔以太网E830系列为虚拟化企业、云、电信及边缘环境中严苛的工作负载提供高性能、安全且高能效的解决方案。首批产品包括双端口25GbE PCIe和符合OCP 3.0标准的适配器,更多配置版本将于年内陆续推出。英特尔以太网E830系列的关键特性包括:
高速的性能表现:英特尔以太网E830产品支持在PCIe 5.0总线上实现高达200GbE的速率,其提供的带宽是上一代产品的两倍,可实现更快数据传输与更优应用响应。
灵活的端口选择:英特尔以太网E830产品提供1x200GbE、2x100/50/25/10GbE和8x25/10GbE等端口配置,让企业能够定制网络基础设施,满足特定的性能与成本需求。
出色的时间同步能力:具备精确时间测量(PTM)、支持1588精确时间协议(PTP)、同步以太网(SyncE)及支持全球导航卫星系统(GNSS)等特性,对电信、金融服务及AI训练与推理等领域的关键时间同步应用至关重要。
增强的安全性:英特尔以太网E830系列搭载英特尔安全技术,如安全启动(Secure Boot)、安全固件升级(Secure Firmware Upgrade)及双硬件信任根,并通过符合CNSA 1.0和FIPS 140-3 Level 1标准的后量子加密(PQC)解决方案,抵御未来风险。
投资保障:与英特尔以太网E810产品的软件与驱动兼容性使升级更简单,可提供无缝过渡和生命周期管理。
英特尔以太网E610系列:高效、安全、可管理的网络
英特尔以太网E610系列面向控制平面网络将可管理性、能效与安全性集于一身。英特尔以太网E610产品提供多种速率和外形规格,具备以下特性:
现代连接:支持10GBASE-T、5G、5G及1000BASE-T技术,英特尔以太网E610产品为数据中心控制平面、工作站及边缘应用提供高效、高性能的连接。
全面的可管理性:英特尔以太网E610系列具备安全协议与数据模型(SPDM)、平台级数据模型(PLDM)、基板管理控制器(BMC)直通及支持网络控制器边带接口(NC-SI)等特性,能简化网络运维并降低管理开销。
出色的能效表现:与上一代产品相比,英特尔以太网E610产品功耗降低达50%,在助力降低运营成本的同时最大限度减少对环境的影响。
强大的安全性:英特尔以太网E610系列包含了用于安全固件更新的硬件信任根,和符合CNSA 1.0标准的现代加密安全功能,为网络完整性提供重要保障,有效抵御网络威胁。
无缝升级能力:全面兼容前代10GBASE-T适配器,简化升级方式,确保客户充分释放既有基础设施潜力。
作为以太网技术领域的全球领导者,英特尔已构建起涵盖思科、慧与科技及超微在内的广泛合作伙伴生态系统。这种开放的生态确保英特尔以太网解决方案能够部署在各类应用中,为客户的网络部署提供出色的灵活性与选择。
好文章,需要你的鼓励
这篇研究论文介绍了"Speechless",一种创新方法,可以在不使用实际语音数据的情况下训练语音指令模型,特别适用于越南语等低资源语言。研究团队通过将文本指令转换为语义表示,绕过了对高质量文本转语音(TTS)系统的依赖。该方法分三个阶段:首先训练量化器将语音转为语义标记;然后训练Speechless模型将文本转为这些标记;最后用生成的合成数据微调大型语言模型。实验表明,该方法在越南语ASR任务中表现出色,为低资源语言的语音助手开发提供了经济高效的解决方案。
《Transformer Copilot》论文提出了一种革命性的大语言模型微调框架,通过系统记录和利用模型训练过程中的"错误日志"来提升推理性能。研究团队受人类学习者记录和反思错误的启发,设计了一个"副驾驶"模型来辅助原始"驾驶员"模型,通过学习错误模式并在推理时校正输出。这一方法在12个基准测试上使模型性能提升高达34.5%,同时保持计算开销最小,展现了强大的可扩展性和可迁移性,为大语言模型的优化提供了全新思路。
德克萨斯大学Austin分校的研究团队提出了RIPT-VLA,一种创新的视觉-语言-动作模型后训练范式。该方法通过让AI模型与环境互动并仅接收简单的成功/失败反馈来学习,无需复杂的奖励函数或价值模型。实验证明,RIPT-VLA能显著提升现有模型性能,在轻量级QueST模型上平均提升21.2%,将大型OpenVLA-OFT模型推至97.5%的前所未有成功率。最令人惊叹的是,仅用一个示范样本,它就能将几乎不可用的模型在15次迭代内从4%提升至97%的成功率,展现出卓越的数据效率和适应能力。
北京大学与华为诺亚方舟实验室研究团队共同开发了TIME基准,这是首个专为评估大语言模型在真实世界场景中的时间推理能力而设计的多层级基准。该研究提出了三个层级的时间推理框架,包含11个细粒度任务,并构建了涵盖38,522个问答对的数据集,针对知识密集型信息、快速变化的事件动态和社交互动中的复杂时间依赖性三大现实挑战。实验结果表明,即使是先进模型在构建时间线和理解复杂时间关系方面仍面临显著挑战,而测试时扩展技术可明显提升时间逻辑推理能力。