至顶网服务器频道 08月31日 新闻消息: Veeam公司已经开始对Amazon Web Services(简称AWS)上的VMware Cloud数据提供备份支持。
由于VMware与Amazon之间已经建立起合作关系,因此AWS负责为VMware提供服务器设施,支持其所运行的Cloud Foundation以及其它同捆vSphere、VSAN、NSX与vCenter。另外,Cloud Foundation亦可运行在内部设施或AWS环境当中。
Veeam公司向来以能够为虚拟巨头的客户提供数据备份服务而自豪,如今其自然将继续紧随虚拟巨头的步伐。因此,Veeam与Amazon达成合作意向,其Veeam Availability Suite现已可供AWS上的VMware Cloud客户使用。
Veeam公司总裁兼联席首席执行官Peter McKay表示,这是个令人振奋的消息,因为该消息“重申了Veeam可为任何服务、任何平台提供可用性的承诺”。
这是Veeam公司一次相对简单的产品扩展,同时亦是一次极具代表性的快速公告。相信其它所有负责为VMware提供支持的数据保护方案供应商也必然会纷纷投身于这一阵营。
好文章,需要你的鼓励
NOVER是一种创新的无验证器强化学习框架,解决了传统激励训练依赖外部验证器的限制。由伦敦国王学院研究团队开发,它通过计算"推理困惑度"作为奖励代理,使语言模型能在任何文本任务中自主发展推理能力。实验表明,NOVER在一般推理、创意写作、社会智能和多语言能力等多种任务上均优于基线方法,甚至使3B模型接近从671B模型蒸馏版本的性能。此外,其灵活性还支持"反向激励训练"等创新应用,为语言模型训练开辟了新方向。
韩国中央大学研究团队开发了名为CoPriva的基准测试,评估大语言模型遵守上下文安全策略的能力。研究发现,虽然多数模型能成功拒绝直接违反安全政策的查询,但在面对间接攻击时存在严重漏洞,泄露率平均增加40%以上。即使是推理能力强的模型也未显示出明显优势,且高忠实度的回答往往伴随更多信息泄露。研究团队评估了10种先进模型,发现政策存在与否对防止泄露影响有限,而修订功能仅能部分提升合规性。这揭示了当前AI安全对齐的重大缺陷,强调了开发更强健安全机制的紧迫性。
这项研究分析了混合专家模型(MoE)的"局部路由一致性"特性,即连续词元激活相似专家的程度,这对内存受限设备上的模型部署至关重要。研究者提出了两种测量指标:段路由最佳性能(SRP)和段缓存最佳命中率(SCH),分析了20个不同MoE模型。结果表明,在每层都使用MoE且不含共享专家的模型局部路由一致性最高,领域专业化的专家比词汇专业化的专家对一致性贡献更大。研究还发现,缓存大小为激活专家数量2倍时能取得最佳平衡,为MoE模型设计和部署提供了重要指导。
清华大学研究团队开发的"思维增强型策略优化"(TAPO)通过将外部高级思维模式整合到强化学习中,显著提升了大语言模型的推理能力。这种方法从仅500个样本中抽象出思维模板,在AIME、AMC和Minerva Math等基准测试中分别比传统方法提高了99%、41%和17%的性能,同时增强了模型的可解释性、稳定性和泛化能力,为AI推理研究开辟了新方向。