开发者可在保护其数据隐私的同时,通过NVIDIA先进学习工具使用跨多个数据集的深度神经网络
中国苏州——GTC China——2019年12月18日——NVIDIA和全球领先的移动出行平台——滴滴出行(以下简称“滴滴”)于今日宣布,滴滴将使用NVIDIA GPU和其他技术开发自动驾驶和云计算解决方案。
滴滴将在数据中心使用NVIDIA GPU训练机器学习算法,并采用NVIDIA DRIVE为其L4级自动驾驶汽车提供推理能力。滴滴在8月将其自动驾驶部门升级为独立公司,并与产业链合作伙伴开展广泛合作。
作为滴滴自动驾驶AI处理的一部分,NVIDIA DRIVE借助多个深度神经网络融合来自各类传感器(摄像头、激光雷达、雷达等)的数据,从而实现对汽车周围环境360度全方位的理解,并规划出安全的行驶路径。
NVIDIA自动驾驶汽车副总裁Rishi Dhall表示:“不论是在云端还是汽车中,开发安全的自动驾驶技术,端到端的AI都不可或缺。借助NVIDIA的AI技术,滴滴将能够开发更安全高效的交通运输系统,并提供丰富的云服务。”
为了训练这些深度神经网络,滴滴将采用NVIDIA GPU数据中心服务器。在云计算方面,滴滴还将构建领先的AI基础架构,并推出计算型、渲染型和游戏型vGPU云服务器。
滴滴云将采用新的vGPU许可证模式,旨在为用户提供体验更佳、应用场景更丰富、效率更高、更具创新性和灵活的GPU计算云服务。目前,滴滴云已与NVIDIA等行业合作伙伴携手服务交通出行、AI、图形渲染、电子游戏及教育培训等多个领域。
滴滴每年为100亿人次提供出行服务,凭借自身的技术、大数据能力与产业链开放协作,以推动自动驾驶技术安全应用。
好文章,需要你的鼓励
新加坡国立大学研究团队开发了名为IEAP的图像编辑框架,它通过将复杂编辑指令分解为简单原子操作序列解决了当前AI图像编辑的核心难题。研究发现当前模型在处理不改变图像布局的简单编辑时表现出色,但在需要改变图像结构时效果差。IEAP框架定义了五种基本操作,并利用思维链推理技术智能分解用户指令,实验证明其性能显著超越现有方法,尤其在处理复杂多步骤编辑时。
Character AI的研究者开发出TalkingMachines系统,通过自回归扩散模型实现实时音频驱动视频生成。研究将预训练视频模型转变为能进行FaceTime风格对话的虚拟形象系统。核心创新包括:将18B参数的图像到视频DiT模型改造为音频驱动系统、通过蒸馏实现无错误累积的无限长视频生成、优化工程设计降低延迟。系统可让多种风格的虚拟角色与人进行自然对话,嘴型与语音同步,为实时数字人交互技术开辟了新可能。
这项由中国人民大学高瓴人工智能学院研究团队发表的研究解决了大语言模型评判中的自我偏好问题。研究提出了DBG分数,通过比较模型给自身回答的分数与黄金判断的差异来测量偏好度,有效分离了回答质量与自我偏好偏差。实验发现,预训练和后训练模型都存在自我偏好,但大模型比小模型偏好度更低;调整回答风格和使用相同数据训练不同模型可减轻偏好。研究还从注意力分析角度揭示了自我偏好的潜在机制,为提高AI评判客观性提供了重要指导。
这篇研究提出了DenseDPO,一种改进视频生成模型的新方法,通过三大创新解决了传统方法中的"静态偏好"问题:使用结构相似的视频对进行比较,采集细粒度的时序偏好标注,并利用现有视觉语言模型自动标注。实验表明,DenseDPO不仅保留了视频的动态性,还在视觉质量方面与传统方法相当,同时大大提高了数据效率。这项技术有望推动AI生成更加自然、动态的视频内容。