VMware发布对vSphere套件的重大更新,戴尔随之在加速器方面做出回应。
戴尔认为,使用其旧有服务器的客户也应该有机会运行数据处理单元(DPU,又名SmartNIC)。这类设备将网络硬件与充足的计算和存储资源结合起来,可以运行加密等杂务,借此释放CPU核心以更高效地处理关键负载。
这家本地硬件厂商上周宣布将推出“Customer Kits”,可用于在第15代PowerEdge服务器(于2021年推出)中安装加速器。戴尔最新的第16代PowerEdge服务器已经于今年早些时候与广大用户见面。
DPU属于PCIe设备,因此在旧服务器上的安装应该不会太过复杂。戴尔没有介绍新套件的样式,也未提及为什么需要额外套件才能接入DPU。
但该套件的存在本身却意义重大。除非您身在超大规模企业,否则目前使用DPU的唯一简单方法就是在VMware的旗舰vSphere 8套件下运行,借助其中提供的“分布式服务引擎”来管理设备及运行其上的工作负载。
VMware此前曾经向媒体证实,其客户并不急于采用DPU,原因就是只有新服务器能够支持,所以打算等下一波硬件更新之后再行考虑。但虚拟巨头提到,旧有服务器其实很快就能支持DPU设备。
没错,戴尔已经用实际行动证明了这个结论。他们甚至表示,已经有部分DPU使用到Arm架构的处理器,其运行功耗更低、能够“压低运营成本并促进可持续性”。
我们也期待首批在旧有戴尔服务器上运行DPU的朋友尽快分享自己的使用感受。
就在戴尔放出消息的同一天,VMware也宣布将对vSphere 8进行第二次更新。
此版本的一大新增功能,就是迅速更新了vCenter——这是VMware着力开发的生命周期管理方案,希望帮助客户轻松对虚拟机组和混合云服务器进行更新和升级管理。VMware目前已经将此视为研发工作的优先事项,看重的自然是其背后的深远意义。
此外,另一项值得关注的更新是在身份联动选项中引入了Microsoft Entra Active Directory(以前称为 Azure AD)。VMware称此举可以减少vCenter的攻击面,允许用户通过Entra来替代直接在VMware设备内复制身份服务。
此次更新还改进了GPU共享能力。这一点非常重要,因为目前GPU产品供应短缺,因此关注AI研发的组织必须想办法把现有GPU有效利用起来。
VMware的软件定义存储产品VSAN也迎来了升级,进一步将存储和计算加以拆分(https://docs.vmware.com/en/VMware-vSphere/8.0/rn/vmware-vsan-802-release-notes/index.html)。
感兴趣的朋友可以参考完整的vSphere 8 Update 2发布说明(https://docs.vmware.com/en/VMware-vSphere/8.0/rn/vsphere-vcenter-server-802-release-notes/index.html),以及VMware工作人员做出的讲解和讨论(https://www.youtube.com/watch?v=J-MunOaZohs,视频)。
还有一条消息,富士通已经在vSphere 8之下认证了其DPU服务器。与这家日本科技巨头一同宣布支持的还有HPE和戴尔。但如前文所述,只有戴尔宣称可在旧有服务器上运行DPU。
好文章,需要你的鼓励
这篇研究论文介绍了"Speechless",一种创新方法,可以在不使用实际语音数据的情况下训练语音指令模型,特别适用于越南语等低资源语言。研究团队通过将文本指令转换为语义表示,绕过了对高质量文本转语音(TTS)系统的依赖。该方法分三个阶段:首先训练量化器将语音转为语义标记;然后训练Speechless模型将文本转为这些标记;最后用生成的合成数据微调大型语言模型。实验表明,该方法在越南语ASR任务中表现出色,为低资源语言的语音助手开发提供了经济高效的解决方案。
《Transformer Copilot》论文提出了一种革命性的大语言模型微调框架,通过系统记录和利用模型训练过程中的"错误日志"来提升推理性能。研究团队受人类学习者记录和反思错误的启发,设计了一个"副驾驶"模型来辅助原始"驾驶员"模型,通过学习错误模式并在推理时校正输出。这一方法在12个基准测试上使模型性能提升高达34.5%,同时保持计算开销最小,展现了强大的可扩展性和可迁移性,为大语言模型的优化提供了全新思路。
德克萨斯大学Austin分校的研究团队提出了RIPT-VLA,一种创新的视觉-语言-动作模型后训练范式。该方法通过让AI模型与环境互动并仅接收简单的成功/失败反馈来学习,无需复杂的奖励函数或价值模型。实验证明,RIPT-VLA能显著提升现有模型性能,在轻量级QueST模型上平均提升21.2%,将大型OpenVLA-OFT模型推至97.5%的前所未有成功率。最令人惊叹的是,仅用一个示范样本,它就能将几乎不可用的模型在15次迭代内从4%提升至97%的成功率,展现出卓越的数据效率和适应能力。
北京大学与华为诺亚方舟实验室研究团队共同开发了TIME基准,这是首个专为评估大语言模型在真实世界场景中的时间推理能力而设计的多层级基准。该研究提出了三个层级的时间推理框架,包含11个细粒度任务,并构建了涵盖38,522个问答对的数据集,针对知识密集型信息、快速变化的事件动态和社交互动中的复杂时间依赖性三大现实挑战。实验结果表明,即使是先进模型在构建时间线和理解复杂时间关系方面仍面临显著挑战,而测试时扩展技术可明显提升时间逻辑推理能力。