Nvidia今天开始发售Jetson AGX Xavier,一款面向工业机器人和其他自主设备的微型机器学习芯片。
去年Nvidia将该芯片作为早期采用者开发套件的一部分在有限范围内进行了首次发布,这次发布也使得Nvidia能够在今天建立一系列令人印象深刻的初始客户名单。
中国电商巨头京东和美团点评正在使用Jetson AGX Xavier打造一批送货机器人,还有一家名为Oxford Nanopore Technologies的英国初创公司正在使用该芯片开发一种手持式DNA测序仪。
Jetson AGX Xavier每秒最多可执行32万亿次计算操作。据Nvidia称,这与专业工作站中使用的某些GPU的性能相当。
区别在于体积。Jetson AGX Xavier芯片体积小巧,可放在手掌中,功率仅为10瓦,比Nvidia企业级GPU低10倍。如果机器设备需要额外的处理能力,功率可以增加到15或30瓦。
Jetson AGX Xavier封装了超过90亿个晶体管,分布于不同芯片中。该模块的核心是Volta GPU,最大时钟频率为1.37千兆赫兹,576个核心。根据Nvidia的说法,其中64个核心是Tensor Core,这是用于加速机器学习算法的专用电路。
该GPU配有八核CPU,两个加速器主要针对计算机视觉任务的优化,32GB板载闪存。Jetson AGX Xavier还提供了丰富的连接选项,让开发者可以将多个传感器连接到系统。
除了Jetson AGX Xavier之外,Nvidia现有的Jetson TX1和Jetson TX2模块主要针对部署在网络边缘的自主型机器。Komatsu是世界领先的重型设备制造商之一,去年与Nvidia展开合作,在一个旨在提高建筑工地工人安全的项目中使用了TX2模块。
Nvidia将以1099美元的价格提供该芯片,批量订单需要超过1000件。
尽管这款芯片针对的是低功耗应用,但速度对于Nvidia产品线来说仍然至关重要。在今天早些时候的另一个公告中,Nvidia表示已经创造了六项人工智能性能记录。Nvidia称,采用高端Tensor Core GPU的Nvidia DGX系统在由Nvidia、谷歌、英特尔、百度和其他几十家公司支持的MLPerf套件中运行了六个基准测试取得了新的记录。
Nvidia加速计算的副总裁兼总经理Ian Buck在新闻发布会上表示:“我们是最具成本效益的人工智能平台。”
但这是一场持久战。今天,Google Cloud也提交了使用Tensor Processing Unit机器学习芯片的计算服务的MLPerf数据。谷歌称,该服务为训练机器学习模型提供了“最易于获得的规模”。
Nvidia这些消息是在其股价急剧下跌的背景下发布的。投资者对中美贸易关系以及芯片行业可能放缓的担忧导致自10月1日以来股价下跌了48%。今天据彭博社报道称,软银集团正在考虑在明年初卖掉自己在Nvidia的60亿美元股权。
好文章,需要你的鼓励
OpenAI首席执行官Sam Altman表示,鉴于投资者的AI炒作和大量资本支出,我们目前正处于AI泡沫中。他承认投资者对AI过度兴奋,但仍认为AI是长期以来最重要的技术。ChatGPT目前拥有7亿周活跃用户,是全球第五大网站。由于服务器容量不足,OpenAI无法发布已开发的更好模型,计划在不久的将来投资万亿美元建设数据中心。
阿里巴巴团队提出FantasyTalking2,通过创新的多专家协作框架TLPO解决音频驱动人像动画中动作自然度、唇同步和视觉质量的优化冲突问题。该方法构建智能评委Talking-Critic和41万样本数据集,训练三个专业模块分别优化不同维度,再通过时间步-层级自适应融合实现协调。实验显示全面超越现有技术,用户评价提升超12%。
英伟达推出新的小型语言模型Nemotron-Nano-9B-v2,拥有90亿参数,在同类基准测试中表现最佳。该模型采用Mamba-Transformer混合架构,支持多语言处理和代码生成,可在单个A10 GPU上运行。独特的可切换推理功能允许用户通过控制令牌开启或关闭AI推理过程,并可管理推理预算以平衡准确性和延迟。模型基于合成数据集训练,采用企业友好的开源许可协议,支持商业化使用。
UC Berkeley团队提出XQUANT技术,通过存储输入激活X而非传统KV缓存来突破AI推理的内存瓶颈。该方法能将内存使用量减少至1/7.7,升级版XQUANT-CL更可实现12.5倍节省,同时几乎不影响模型性能。研究针对现代AI模型特点进行优化,为在有限硬件资源下运行更强大AI模型提供了新思路。