NVIDIA Studio集成RTX GPU与NVIDIA Studio套件,优化性能和可靠性; 17台全新RTX Studio笔记本电脑同步推出
台北——Computex——2019年5月27日——今天,NVIDIA推出NVIDIA Studio平台,为全球4000万使用高性能PC进行内容创作的创作者和工作室带来性能更强、更可靠的创作工具。
NVIDIA Studio结合RTX GPU,NVIDIA Studio Stack包含专用SDK和Studio驱动,NVIDIA进行了严格的硬件和软件程序测试,使其可以更好的支持顶级创意程序以及工作流程。
NVIDIA Studio平台的另一个重磅新闻是在Computex上推出17台RTX Studio笔记本电脑,这些笔记本电脑来自7家全球领先的PC制造商。所有符合全新RTX Studio软硬件要求的笔记本电脑将贴有RTX Studio认证标识,这一标识将使创作者可以更轻松的识别支持他们创意流程的笔记本电脑。
NVIDIA GeForce软件和技术总经理Jason Paul表示:“NVIDIA Studio配备RTX GPU,支持实时光线跟踪,具备基于人工智能的图形处理能力和高分辨率视频编辑能力,再配合工作室级软件可以完全满足当今创作者不断增长的需求。同时对于在移动办公时仍需要高性能工作的内容创作者而言,全新的RTX Studio笔记本电脑更是完美工具。”
RTX Studio笔记本电脑采用全新Quadro RTX 5000, 4000和3000 GPU,及GeForce RTX 2080, 2070, 2060 GPU。
RTX GPU加速从视频编辑到3D渲染内容创建,其速度比MacBook Pro快7倍。基于Quadro RTX 5000的笔记本电脑搭载16GB显存,这是笔记本电脑的最大显存,可实现同时启动多个应用程序进行创意工作,也支持大型3D模型等传统只能通过桌面级PC才能完成的工作。
许多笔记本电脑都采用4K高分辨率显示屏和NVIDIA Max-Q技术,不仅设计时尚、轻薄,更有令人难以置信的性能和超长续航。
“使用Adobe Creative Cloud的创作者需要最强大的硬件来进行内容创作,我们相信他们一定会对全新NVIDIA RTX Studio笔记本电脑和Studio驱动程序感到很兴奋。”Adobe视频合作伙伴关系主管Sue Skidmore表示。
NVIDIA Studio套件是一套为数字内容创作者在使用创意应用程序时提供最佳性能和可靠性的软件。它包括适用于应用程序开发者的NVIDIA Studio SDK和API以及适用于创作者的NVIDIA Studio驱动。
Studio SDK可加速渲染,视频编辑和处理,2D矢量动画等。利用人工智能开发的行业标准CUDA-X™ AI平台,创意应用程序开发者可使用人工智能自动执行耗费时间的重复性任务,例如升级图像,标记照片或为视频配色。
NVIDIA Studio驱动针对创作者使用的如Adobe,Autodesk,Avid,Blackmagic Design,Epic,Maxon和Unity等顶级创意应用程序的多个版本进行了广泛测试。
Autodesk的高级软件开发经理Eric Bourque表示,“创作者常常面临紧迫的工期,并依靠最新的硬件和创造性工具来按时完成项目,并保证项目质量。我们很高兴NVIDIA正在扩展Studio 驱动计划,为最新版本的Arnold,3ds Max和Maya带来支持和性能优化。”
今天推出的最新NVIDIA Studio驱动,为最新版本的顶级创意应用程序提供最佳支持,包括Autodesk Maya 2019,Autodesk 3ds Max 2020,Blackmagic Design DaVinci Resolve 16和Daz3D Daz Studio等。
6月起,全球创作者们可于从世界顶级的笔记本品牌商处购买RTX Studio笔记本电脑,包括宏基、华硕、戴尔、技嘉、惠普、微星和雷蛇等。
好文章,需要你的鼓励
Snap 推出 Lens Studio 的 iOS 应用和网页工具,让所有技能层次的用户都能通过文字提示和简单编辑,轻松创建 AR 镜头,包括生成 AI 效果和集成 Bitmoji,从而普及 AR 创作,并持续为专业应用提供支持。
这项研究提出了CURE框架,通过强化学习让大语言模型同时学习编写代码和生成单元测试两种能力,无需使用标准代码作为监督。团队开发的ReasonFlux-Coder模型在仅用4.5K编程问题训练后,便在多个基准测试中超越了同类模型,代码生成准确率提高5.3%,最佳N选1准确率提高9.0%。该方法不仅提升了模型性能,还提高了推理效率,同时为降低API调用成本和无标签强化学习提供了新思路。
南京大学与字节跳动联合团队开发的MotionSight系统,为多模态大语言模型提供了"动态视觉增强"能力,解决了现有AI系统在理解视频细粒度动作方面的困难。这一零样本方法通过对象中心的视觉聚光灯和动态模糊技术,显著提升了模型对物体动作和摄像机动作的感知能力,在不需要额外训练的情况下实现了业界领先性能。研究团队同时构建了MotionVid-QA数据集,这是首个专注于细粒度视频动作理解的大规模开源数据集,包含4万多个视频片段和近9万个问答对,为未来研究提供了宝贵资源。