2023 年 8 月 8 日 — NVIDIA 于今日宣布将为开发者和企业提供一系列框架、资源和服务,以加速通用场景描述(即OpenUSD)的采用。
NVIDIA 正在通过 NVIDIA Omniverse™ 与新的技术组合、ChatUSD 和 RunUSD 等云应用编程接口(API)以及全新 NVIDIA OpenUSD 开发者计划来推进 OpenUSD 的发展。OpenUSD 是一个 3D 框架,可实现软件工具与数据类型之间的互通,从而构建虚拟世界。
NVIDIA 上周宣布与皮克斯、Adobe、苹果和 Autodesk 共同成立 OpenUSD 联盟(AOUSD),以统一 OpenUSD 规范。对 OpenUSD 的这些投资将为该联盟添砖加瓦。
NVIDIA 创始人兼首席执行官黄仁勋表示:“正如 HTML 点燃了 2D 互联网的重大计算革命,OpenUSD 也将开启协作式 3D 和工业数字化的时代。NVIDIA 通过开发 NVIDIA Omniverse 和生成式 AI ,正在全力推动 OpenUSD 的发展和应用。”
全新API 帮助开发者无缝部署OpenUSD 应用
NVIDIA 发布了四款自主构建的全新 Omniverse Cloud API,帮助开发者更加无缝地实施和部署 OpenUSD 流程与应用。
OpenUSD 功能演进 加速工业智能化升级
OpenUSD 旨在更好地连接电影和动画制作流程。同时,工业应用(比如构建具有互操作性的制造设计流程、创建符合物理学的实时工厂数字孪生或训练和验证自动驾驶汽车等)也对 3D 框架提出了不同的要求。
为了支持这些高度复杂的工业和感知 AI 工作负载,NVIDIA 正在开发NVIDIA Omniverse(用于开发应用程序的OpenUSD原生软件平台),以及地理空间数据模型、度量组件、SimReady、OpenUSD 规范等。
OpenUSD 地理空间数据模型让用户可以对逼真的工厂、仓库、城市乃至地球数字孪生进行模拟和计算。对于极大规模的项目,它还会考虑到地球的曲率以确保模拟符合物理学。
工业应用需要合并来自许多工具和来源的数据集,每个数据集以不同的单位表示。NVIDIA 正在开发一个 OpenUSD 度量组件,使用户能够百分之百准确地合并不同格式的数据集。
NVIDIA 还在开发适用于全新 SimReady 3D 模型的结构。这些模型将包含真实的材质和物理属性,这对于精准训练自主机器人和车辆至关重要。例如负责分拣包裹的自主机器人需要在 3D 包裹上进行模拟训练,这些包裹会像在真实世界中一样移动并对物理接触做出反应。
欢迎通过 NVIDIA OpenUSD 开发者计划 抢先体验 OpenUSD 服务、资源和工具,其中包括由 NVIDIA 设计师和艺术家构建的两个可完整分发的全新 OpenUSD 示例场景—— Da Vinci’s Workshop 与 Riverfront Tower。
进一步了解 OpenUSD及其生态网络、OpenUSD联盟 和 NVIDIA Omniverse 平台。观看 NVIDIA 创始人兼首席执行官黄仁勋的 SIGGRAPH 主题演讲。
好文章,需要你的鼓励
这项研究由德累斯顿工业大学等机构的研究团队完成,旨在解决主动学习未被广泛应用的问题。研究者构建了包含460万种超参数组合的实验网格,系统分析了各参数对主动学习性能的影响。研究发现,不同策略实现间存在显著差异,基于边缘的不确定性策略整体表现最佳,随机选择约4000个超参数组合即可获得可靠结果。这些发现为设计可重现、可信赖的主动学习实验提供了明确指导,有助于降低入门门槛,促进技术在实际应用中的普及。
这项由英国爱丁堡大学和上海人工智能实验室研究者共同完成的工作提出了LongBioBench,一种用于评估长文本语言模型的新型基准测试框架。通过使用人工生成的虚构人物传记作为测试环境,该框架在保持可控性的同时,提供了更真实的评估场景。研究对18个长文本模型的测试表明,即使最先进的模型在检索、推理和可信任性方面仍存在显著挑战,特别是上下文长度增加时。研究还揭示了现有合成基准测试的设计缺陷和长上下文预训练的局限性,为未来模型开发提供了重要指导。
SuperWriter是一项来自新加坡科技设计大学和清华大学的突破性研究,通过模仿人类"先思考后写作"的过程,彻底改良了AI长文生成能力。该研究团队开发的框架包含三个关键阶段:规划、写作和修改,使AI能像专业作家一样进行结构化思考。实验结果表明,经过训练的SuperWriter-LM模型不仅超越同等规模的所有AI模型,甚至在某些领域表现优于规模更大的顶级模型,为AI辅助写作开创了新的可能性。
香港大学与阿里巴巴达摩院合作开发的LayerFlow是一种突破性的层级视频生成技术,能同时生成透明前景、完整背景和混合场景视频。该技术通过创新的框架设计将不同视频层级作为子片段连接,并引入层级嵌入使模型区分各层级。面对高质量训练数据稀缺的挑战,研究团队设计了三阶段训练策略,结合Motion LoRA和Content LoRA,实现了图像和视频数据的联合训练。LayerFlow不仅支持多层视频生成,还能实现视频分解和条件层生成,为视频创作领域带来革命性变革。