Nvidia即将推出Jetson AGX Orin平台的一款生产用模块,旨在嵌入设备内部,并为机器人和边缘计算等各种应用提供AI加速。
Jetson AGX Orin 32GB生产模块将结合一个基于Nvidia Ampere架构的GPU以及一个基于Arm的8核Cortex-A78AE CPU,还有32GB内存和64GB嵌入式(eMMC)闪存存储,搭载在一块尺寸为100mm x 87mm(比Raspberry Pi略大)的板子上。
不过,Jetson AGX Orin 32GB模块的价格比Raspberry Pi的价格要高得多,高达999美元(约合817.32英镑),这让任何感兴趣的用户都有些失望了。
这个模块是Nvidia今年早些时候在GTC大会上公布的四款基于Jetson Orin的生产模块中的第一款,除此之外,Nvidia还推出了Jetson AGX Orin开发工具包。Jetson AGX Orin的64GB版本将于10月上市,而另外两款功能相对弱一些的Orin NX生产模块将于今年晚些时候上市。
根据Nvidia提供的规格数据显示,Jetson AGX Orin 32GB模块每秒可进行200万亿次运算(TOPS),低于开发者套件中硬件的275 TOPS,后者拥有2048核Ampere架构的GPU。而Jetson AGX Orin 32GB中的是1792核GPU。不过据称该模块的性能是此前Jetson Xavier一代模块的6倍。
据Nvidia称,全球合作伙伴网络中约有三十多家技术提供商已经上市了由这款新模块驱动的商用产品。
与开发者工具包一样,这款生产模块采用Nvidia Jetson软件堆栈,让开发者能够在Jetson上构建和部署完全加速的AI应用,包括Nvidia JetPack SDK开发环境,以及用于调整性能的CUDA-X库和工具集合。
Nvidia还表示,Nvidia提供的其他平台也可以采用这款Jetson AGX Orin 32GB模块,例如用于机器人技术的Isaac、用于计算机视觉的DeepStream、用于自然语言理解的Riva,以及使用训练模型加速模型开发的TAO工具包。
该模块提供了一系列I/O选项,从2 x8、1x4 和2 x1 PCIe 4.0通道、千兆位和万兆以太网端口、8K显示输出和USB端口,此外还提供了更多的UART、SPI、I2S和I2C端口,以及CAN总线和GPIO。但是,其中一些I/O选项是共享通用PHY (UPHY)连接器上的通道。
据Nvidia称,这些功能让开发者能够构建和部署Orin驱动的系统,这些系统配备了摄像头、适用于边缘AI、机器人、物联网和嵌入式应用的传感器。
Nvidia表示,合作伙伴将提供可用于生产的系统,让客户能够应对从制造、零售和建筑到农业、物流、医疗保健和智慧城市等行业面临的各种挑战。
好文章,需要你的鼓励
三星与AI搜索引擎Perplexity合作,将其应用引入智能电视。2025年三星电视用户可立即使用,2024和2023年款设备将通过系统更新获得支持。用户可通过打字或语音提问,Perplexity还为用户提供12个月免费Pro订阅。尽管面临版权争议,这一合作仍引发关注。
浙江大学团队提出动态专家搜索方法,让AI能根据不同问题灵活调整内部专家配置。该方法在数学、编程等任务上显著提升推理准确率,且不增加计算成本。研究发现不同类型问题偏爱不同专家配置,为AI推理优化开辟新路径。
苹果M5 MacBook Pro评测显示这是一次相对较小的升级。最大变化是M5芯片,CPU性能比M4提升约9%,多核性能比M4 MacBook Air快19%,GPU性能提升37%。功耗可能有所增加但电池续航保持24小时。评测者认为该产品不适合M4用户升级,但对使用older型号用户仍是强有力选择。
清华大学研究团队提出SIRI方法,通过"压缩-扩张"交替训练策略,成功解决了大型推理模型"话多且准确率低"的问题。实验显示,该方法在数学竞赛题上将模型准确率提升43.2%的同时,输出长度减少46.9%,真正实现了效率与性能的双重优化,为AI模型训练提供了新思路。