至顶网服务器频道 08月27日 新闻消息(文/李祥敬): 在前不久举行的WRC 2018世界机器人大会上,NVIDIA展出了专为机器人设计的芯片Jetson Xavier。同时,NVIDIA高级软件经理李铭博士也向媒体详细介绍了这款芯片的特点,阐述了Jetson Xavier如何推动机器人软硬件技术的发展。
NVIDIA Jetson Xavier于今年6月初在2018年台北国际电脑展(COMPUTEX 2018)上首发,NVIDIA将其描述为一台适用于自主机器人的AI计算机。NVIDIA创始人兼首席执行官黄仁勋在发布这款芯片的时候说,这就是未来智能机器人的大脑。在NVIDIA看来,机器人终归是要拥有超强的边缘计算能力,而Jetson Xavier正是为了下一代自主机器打造的AI计算芯片。
李铭表示,当前人工智能已经发展到了一个转折点,而GPU芯片可凭借其可变性和超强的计算力以及CUDA平台为AI的发展提供了强有力的支持。现在NVIDIA将GPU带到了机器人领域,将Jetson Xavier打造成未来智能机器人的大脑。
据介绍,Jetson Xavier是NVIDIA单独做过的最长的一个处理器项目,为了打造它,NVIDIA耗费了五年的时间(三年设计、两年筑造),共有超过8000人参与了设计与开发,也是NVIDIA首款专门为机器人设计的产品。
Jetson Xavier拥有6种高性能处理器,包括1个Volta Tensor Core GPU、1个8核ARM64 CPU、2个NVDLA深度学习加速器、1个图像处理器、1个视觉处理器和1个视频处理器。这些处理器使其能够同时、且实时地处理数十种算法,以用于传感器处理、测距、定位和绘图、视觉和感知以及路径规划。
这样的配置让其能够在30W以下的嵌入式模块中提供相当于一台GPU工作站的性能。Jetson Xavier拥有超过90亿个晶体管,可提供每秒30万亿次操作的深度学习和计算机视觉任务。相较于上一代产品Jetson TX2,Jetson Xavier的能效提升了10倍之多,性能优化了20倍之多。
李铭告诉记者,Jetson Xavier专攻自主机器,像机器人手臂、自动化设备与服务型机器人、无人机等,可广泛应用于工业生产线、仓储、物流、零售与农业等多种场景。同时,Jetson Xavier也适用于智慧城市应用程序和便携式医疗设备。
NVIDIA为Jetson Xavier的模拟、训练、验证和部署提供了一个工具箱——NVIDIA Isaac机器人软件平台,包括包含API工具包Isaac SDK、智能机器加速应用Isaac IMX以及高度逼真的虚拟仿真环境Isaac Sim。
李铭特别指出,Isaac SIM可以在虚拟世界中对机器人进行训练,而不用担心对现实物理世界造成破坏性的影响,比如在训练消防机器人或者其他复杂性环境的工作机器人。NVIDIA希望为机器人产业打造一个端到端的解决方案。
黄仁勋也为我们描述了未来智能机器人产业的美好前景,他说,AI是我们这一时代最强大的技术力量。第一阶段人工智能将实现全新的软件自动化水平,从而帮助诸多行业提高生产力;其后,人工智能与传感器和执行器相结合,将成为新一代自主机器的核心。终有一天,数十亿台智能机器人将用于制造、送货上门服务、仓储物流等领域。
好文章,需要你的鼓励
OpenAI首席执行官Sam Altman表示,鉴于投资者的AI炒作和大量资本支出,我们目前正处于AI泡沫中。他承认投资者对AI过度兴奋,但仍认为AI是长期以来最重要的技术。ChatGPT目前拥有7亿周活跃用户,是全球第五大网站。由于服务器容量不足,OpenAI无法发布已开发的更好模型,计划在不久的将来投资万亿美元建设数据中心。
阿里巴巴团队提出FantasyTalking2,通过创新的多专家协作框架TLPO解决音频驱动人像动画中动作自然度、唇同步和视觉质量的优化冲突问题。该方法构建智能评委Talking-Critic和41万样本数据集,训练三个专业模块分别优化不同维度,再通过时间步-层级自适应融合实现协调。实验显示全面超越现有技术,用户评价提升超12%。
英伟达推出新的小型语言模型Nemotron-Nano-9B-v2,拥有90亿参数,在同类基准测试中表现最佳。该模型采用Mamba-Transformer混合架构,支持多语言处理和代码生成,可在单个A10 GPU上运行。独特的可切换推理功能允许用户通过控制令牌开启或关闭AI推理过程,并可管理推理预算以平衡准确性和延迟。模型基于合成数据集训练,采用企业友好的开源许可协议,支持商业化使用。
UC Berkeley团队提出XQUANT技术,通过存储输入激活X而非传统KV缓存来突破AI推理的内存瓶颈。该方法能将内存使用量减少至1/7.7,升级版XQUANT-CL更可实现12.5倍节省,同时几乎不影响模型性能。研究针对现代AI模型特点进行优化,为在有限硬件资源下运行更强大AI模型提供了新思路。