托管云服务厂商Rackspace今天宣布推出旨在帮助客户更好管理混合云部署的新产品。
Rackspace表示,这些新服务将促进现代应用的部署和管理。
Rackspace最近将自己重新定位为无偏见的托管云服务提供商,目的是为了“加速云的价值”,无论是软件即服务、公有云、私有云还是混合云。
特别是混合云,显然是Rackspace战略的一个重要组成部分。Rackspace高级副总裁、解决方案和服务部总经理Vikas Gurungunti在声明中表示:“我们正处于重要的混合云发展阶段,有超过1万亿美元的开支是用于云和相关IT服务的。”
混合云也成为了Rackspace最新产品的重点,这些新产品中包括了托管版本的VMware Cloud on AWS,该服务是在AWS公有云的裸机服务器上运行VMware软件定义数据中心。有了它,用户可以在公有云、私有云或者混合云环境中运行他们的应用。
Rackspace表示,还将为客户提供先进的Kubernetes服务以部署软件容器,这些容器可托管运行在任何基础设施上的现代敏捷应用组件。该服务通过新的Cloud Reliability Engineering Service Block提供更好的服务,同时也有一个由Rackspace基础设施工程师组成的团队,与客户内部的IT团队展开密切合作,这样Rackspace的专业人员就可以与企业合作,帮助他们更快地采用云原生技术。
Rackspace扩展的服务组合也涵盖了安全性,Rackspace表示,新推出的Proactive Detection and Response and Compliance Assistance可用于VMware私有云。此外,Rackspace还让托管公有云客户可以使用来自领先公有云厂商(如AWS)的原生安全工具。
最后,Rackspace还公布了一项新的集成和API Management Assessment服务,旨在评估整个企业组织的应用和数据集成情况,并对其进行优化以获得更好的性能。
Gurungunti表示:“我们新推出的高级混合云服务组合以行业领先的服务块框架为后盾,为客户提供必要的专业知识帮助他们完成混合云之旅,从确定云目标一直到使用容器和云原生技术转型和保护他们的应用环境。”
好文章,需要你的鼓励
zip2zip是一项创新技术,通过引入动态自适应词汇表,让大语言模型在推理时能够自动组合常用词组,显著提高处理效率。由EPFL等机构研究团队开发的这一方法,基于LZW压缩算法,允许模型即时创建和使用"超级tokens",将输入和输出序列长度减少20-60%,大幅提升推理速度。实验表明,现有模型只需10个GPU小时的微调即可适配此框架,在保持基本性能的同时显著降低计算成本和响应时间,特别适用于专业领域和多语言场景。
这项研究创新性地利用大语言模型(LLM)代替人类标注者,创建了PARADEHATE数据集,用于仇恨言论的无毒化转换。研究团队首先验证LLM在无毒化任务中表现可与人类媲美,随后构建了包含8000多对仇恨/非仇恨文本的平行数据集。评估显示,在PARADEHATE上微调的模型如BART在风格准确性、内容保留和流畅性方面表现优异,证明LLM生成的数据可作为人工标注的高效替代方案,为创建更安全、更具包容性的在线环境提供了新途径。
这项研究由中国科学技术大学的研究团队提出了Pro3D-Editor,一种新型3D编辑框架,通过"渐进式视角"范式解决了现有3D编辑方法中的视角不一致问题。传统方法要么随机选择视角迭代编辑,要么同时编辑多个固定视角,都忽视了不同编辑任务对应不同的"编辑显著性视角"。Pro3D-Editor包含三个核心模块:主视角采样器自动选择最适合编辑的视角,关键视角渲染器通过创新的MoVE-LoRA技术将编辑信息传递到其他视角,全视角精修器修复并优化最终3D模型。实验证明该方法在编辑质量和准确性方面显著优于现有技术。
这项研究提出了ComposeAnything,一个无需重新训练的框架,可显著提升AI图像生成模型处理复杂空间关系的能力。该技术由INRIA、巴黎高师和CNRS的研究团队开发,通过三个创新步骤工作:首先利用大型语言模型创建包含深度信息的2.5D语义布局,然后生成粗略的场景合成图作为先验指导,最后通过物体先验强化和空间控制去噪引导扩散过程。在T2I-CompBench和NSR-1K基准测试中,该方法远超现有技术,特别是在处理复杂空间关系和多物体场景时表现卓越,为AI辅助创意设计开辟新可能。