Nvidia今天开始发售Jetson AGX Xavier,一款面向工业机器人和其他自主设备的微型机器学习芯片。
去年Nvidia将该芯片作为早期采用者开发套件的一部分在有限范围内进行了首次发布,这次发布也使得Nvidia能够在今天建立一系列令人印象深刻的初始客户名单。
中国电商巨头京东和美团点评正在使用Jetson AGX Xavier打造一批送货机器人,还有一家名为Oxford Nanopore Technologies的英国初创公司正在使用该芯片开发一种手持式DNA测序仪。
Jetson AGX Xavier每秒最多可执行32万亿次计算操作。据Nvidia称,这与专业工作站中使用的某些GPU的性能相当。
区别在于体积。Jetson AGX Xavier芯片体积小巧,可放在手掌中,功率仅为10瓦,比Nvidia企业级GPU低10倍。如果机器设备需要额外的处理能力,功率可以增加到15或30瓦。
Jetson AGX Xavier封装了超过90亿个晶体管,分布于不同芯片中。该模块的核心是Volta GPU,最大时钟频率为1.37千兆赫兹,576个核心。根据Nvidia的说法,其中64个核心是Tensor Core,这是用于加速机器学习算法的专用电路。
该GPU配有八核CPU,两个加速器主要针对计算机视觉任务的优化,32GB板载闪存。Jetson AGX Xavier还提供了丰富的连接选项,让开发者可以将多个传感器连接到系统。
除了Jetson AGX Xavier之外,Nvidia现有的Jetson TX1和Jetson TX2模块主要针对部署在网络边缘的自主型机器。Komatsu是世界领先的重型设备制造商之一,去年与Nvidia展开合作,在一个旨在提高建筑工地工人安全的项目中使用了TX2模块。
Nvidia将以1099美元的价格提供该芯片,批量订单需要超过1000件。
尽管这款芯片针对的是低功耗应用,但速度对于Nvidia产品线来说仍然至关重要。在今天早些时候的另一个公告中,Nvidia表示已经创造了六项人工智能性能记录。Nvidia称,采用高端Tensor Core GPU的Nvidia DGX系统在由Nvidia、谷歌、英特尔、百度和其他几十家公司支持的MLPerf套件中运行了六个基准测试取得了新的记录。
Nvidia加速计算的副总裁兼总经理Ian Buck在新闻发布会上表示:“我们是最具成本效益的人工智能平台。”
但这是一场持久战。今天,Google Cloud也提交了使用Tensor Processing Unit机器学习芯片的计算服务的MLPerf数据。谷歌称,该服务为训练机器学习模型提供了“最易于获得的规模”。
Nvidia这些消息是在其股价急剧下跌的背景下发布的。投资者对中美贸易关系以及芯片行业可能放缓的担忧导致自10月1日以来股价下跌了48%。今天据彭博社报道称,软银集团正在考虑在明年初卖掉自己在Nvidia的60亿美元股权。
好文章,需要你的鼓励
当前AI技术正引发一场"认知迁移",重新定义专业价值和工作方式。不同于以往技术革命,AI不仅自动化任务,更开始承担判断、语言和创意表达,模糊了人机界限。面对这一转变,专业人士呈现五种态度:积极拥抱者、被动适应者、主动抵制者、未受影响者和边缘化群体。AI采用速度超越理解速度,重塑认知领域的同时也带来身份认同危机。这场迁移将重新定义角色、价值观和整个职业阶层,需要制度层面的具体应对措施。
上海交通大学研究团队发布了突破性的科学推理数据集MegaScience,包含125万高质量实例,首次从12000本大学教科书中大规模提取科学推理训练数据。该数据集显著提升了AI模型在物理、化学、生物等七个学科的推理能力,训练的模型在多项基准测试中超越官方版本,且具有更高的训练效率。研究团队完全开源了数据集、处理流程和评估系统。
企业持续投资云优先战略,但大型数据库云迁移面临复杂挑战。通过"规划-构建-运行"结构化方法,IT领导者可成功完成本地系统云迁移。关键包括:制定迁移策略、评估环境复杂性、选择数据传输和同步工具、创建测试计划、执行迁移并保持同步,最后优化云运营、确保安全合规。云迁移不仅是数据搬迁,更是创新增长平台的构建过程。
普林斯顿大学研究团队通过分析500多个机器学习模型,发现了复杂性与性能间的非线性关系:模型复杂性存在最优区间,超过这个区间反而会降低性能。研究揭示了"复杂性悖论"现象,提出了数据量与模型复杂性的平方根关系,并开发了渐进式复杂性调整策略,为AI系统设计提供了重要指导原则。