NVIDIA和NetApp提供托管型NVIDIA DGX SuperPOD和NetApp数据管理平台的订阅服务;面向公有云基础设施的各类集成即将推出
美国加利福尼亚州圣克拉拉市—— COMPUTEX——太平洋时间2021年5月31日——NVIDIA于今日发布NVIDIA® Base Command™ Platform。这款托管在云端的开发中心,可以使企业能够将他们的AI项目从原型快速投入生产。
该软件专为托管在本地或云端的大规模、多用户、多团队AI开发工作流程设计。它可以使众多研究人员和数据科学家同时使用加速计算资源工作,帮助企业最大限度地提高专家级开发者和宝贵AI基础设施的生产力。
Base Command Platform 现可通过 NVIDIA 和 NetApp 联合提供的高级月度订阅来获取。通过附带NetApp 解决方案的 Base Command Platform,将能够利用具有破纪录性能的 NVIDIA DGX SuperPOD™ AI 超级计算机和 NetApp 数据管理服务。
谷歌云计划在其云市场中添加对Base Command Platform的支持,在今年晚些时候为客户提供真正的混合AI体验。
NVIDIA企业计算负责人Manuvir Das表示:“世界级的AI开发工作需要强大的计算基础设施,并且至关重要是让每一家公司和他们的客户都能使用和获得这些资源,从而让AI技术为其所用。作为一款基于NVIDIA加速计算的云托管解决方案,NVIDIA Base Command Platform降低了AI工作流程管理的复杂性,从而让数据科学家和研究人员能够将更多的时间用于开发他们的AI项目,减少管理他们机器的时间。”
NetApp混合云事业部执行副总裁Brad Anderson表示:“大多数企业现在都知道AI对其数字化转型计划的成功至关重要,但他们却面临着一项复杂的挑战,即如何将其部署并整合到企业中。与NetApp合作推出的NVIDIA Base Command Platform和新的订阅产品能够帮助客户更轻松地部署AI并将其应用到工作中,简化工作流程管理,并提供无与伦比的性能和处理能力,为其部署提供巨大的帮助。”
谷歌云机器学习基础设施产品管理总监Manish Sainani表示:“我们很高兴能够与NVIDIA合作,在谷歌云市场中支持Base Command Platform。这款混合型AI产品,可以使得企业只需编写一次就能在任何地方运行,灵活接入多个NVIDIA A100 Tensor Core GPU,通过采用按需的加速计算,企业可以加快AI开发速度。”
为AI和数据科学提供全面的工作流程管理
Base Command Platform为整个AI开发提供了统一的视图。该视图通过图形用户界面和命令行API以及综合监控和报告仪表盘来促进资源的轻松共享。
包括NVIDIA NGC™ 的AI和分析软件目录、与MLOps软件集成的API、Jupyter笔记本等在内的一系列丰富的AI和数据科学工具帮助研究人员可以更快的计划和安排工作负载、完善模型和获得洞察。
NVIDIA开发的Base Command Platform将为其全球各地研究团队的工作提供强有力的支持。平台客户将与NVIDIA内部团队同步获得这些新功能的更新。
供应情况
与NetApp联合提供的NVIDIA Base Command Platform现已向早期体验客户开放,有意向的客户可向NetApp代表咨询更多细节。
好文章,需要你的鼓励
zip2zip是一项创新技术,通过引入动态自适应词汇表,让大语言模型在推理时能够自动组合常用词组,显著提高处理效率。由EPFL等机构研究团队开发的这一方法,基于LZW压缩算法,允许模型即时创建和使用"超级tokens",将输入和输出序列长度减少20-60%,大幅提升推理速度。实验表明,现有模型只需10个GPU小时的微调即可适配此框架,在保持基本性能的同时显著降低计算成本和响应时间,特别适用于专业领域和多语言场景。
这项研究创新性地利用大语言模型(LLM)代替人类标注者,创建了PARADEHATE数据集,用于仇恨言论的无毒化转换。研究团队首先验证LLM在无毒化任务中表现可与人类媲美,随后构建了包含8000多对仇恨/非仇恨文本的平行数据集。评估显示,在PARADEHATE上微调的模型如BART在风格准确性、内容保留和流畅性方面表现优异,证明LLM生成的数据可作为人工标注的高效替代方案,为创建更安全、更具包容性的在线环境提供了新途径。
这项研究由中国科学技术大学的研究团队提出了Pro3D-Editor,一种新型3D编辑框架,通过"渐进式视角"范式解决了现有3D编辑方法中的视角不一致问题。传统方法要么随机选择视角迭代编辑,要么同时编辑多个固定视角,都忽视了不同编辑任务对应不同的"编辑显著性视角"。Pro3D-Editor包含三个核心模块:主视角采样器自动选择最适合编辑的视角,关键视角渲染器通过创新的MoVE-LoRA技术将编辑信息传递到其他视角,全视角精修器修复并优化最终3D模型。实验证明该方法在编辑质量和准确性方面显著优于现有技术。
这项研究提出了ComposeAnything,一个无需重新训练的框架,可显著提升AI图像生成模型处理复杂空间关系的能力。该技术由INRIA、巴黎高师和CNRS的研究团队开发,通过三个创新步骤工作:首先利用大型语言模型创建包含深度信息的2.5D语义布局,然后生成粗略的场景合成图作为先验指导,最后通过物体先验强化和空间控制去噪引导扩散过程。在T2I-CompBench和NSR-1K基准测试中,该方法远超现有技术,特别是在处理复杂空间关系和多物体场景时表现卓越,为AI辅助创意设计开辟新可能。