Nvidia即将推出Jetson AGX Orin平台的一款生产用模块,旨在嵌入设备内部,并为机器人和边缘计算等各种应用提供AI加速。
Jetson AGX Orin 32GB生产模块将结合一个基于Nvidia Ampere架构的GPU以及一个基于Arm的8核Cortex-A78AE CPU,还有32GB内存和64GB嵌入式(eMMC)闪存存储,搭载在一块尺寸为100mm x 87mm(比Raspberry Pi略大)的板子上。
不过,Jetson AGX Orin 32GB模块的价格比Raspberry Pi的价格要高得多,高达999美元(约合817.32英镑),这让任何感兴趣的用户都有些失望了。
这个模块是Nvidia今年早些时候在GTC大会上公布的四款基于Jetson Orin的生产模块中的第一款,除此之外,Nvidia还推出了Jetson AGX Orin开发工具包。Jetson AGX Orin的64GB版本将于10月上市,而另外两款功能相对弱一些的Orin NX生产模块将于今年晚些时候上市。
根据Nvidia提供的规格数据显示,Jetson AGX Orin 32GB模块每秒可进行200万亿次运算(TOPS),低于开发者套件中硬件的275 TOPS,后者拥有2048核Ampere架构的GPU。而Jetson AGX Orin 32GB中的是1792核GPU。不过据称该模块的性能是此前Jetson Xavier一代模块的6倍。
据Nvidia称,全球合作伙伴网络中约有三十多家技术提供商已经上市了由这款新模块驱动的商用产品。
与开发者工具包一样,这款生产模块采用Nvidia Jetson软件堆栈,让开发者能够在Jetson上构建和部署完全加速的AI应用,包括Nvidia JetPack SDK开发环境,以及用于调整性能的CUDA-X库和工具集合。
Nvidia还表示,Nvidia提供的其他平台也可以采用这款Jetson AGX Orin 32GB模块,例如用于机器人技术的Isaac、用于计算机视觉的DeepStream、用于自然语言理解的Riva,以及使用训练模型加速模型开发的TAO工具包。
该模块提供了一系列I/O选项,从2 x8、1x4 和2 x1 PCIe 4.0通道、千兆位和万兆以太网端口、8K显示输出和USB端口,此外还提供了更多的UART、SPI、I2S和I2C端口,以及CAN总线和GPIO。但是,其中一些I/O选项是共享通用PHY (UPHY)连接器上的通道。
据Nvidia称,这些功能让开发者能够构建和部署Orin驱动的系统,这些系统配备了摄像头、适用于边缘AI、机器人、物联网和嵌入式应用的传感器。
Nvidia表示,合作伙伴将提供可用于生产的系统,让客户能够应对从制造、零售和建筑到农业、物流、医疗保健和智慧城市等行业面临的各种挑战。
好文章,需要你的鼓励
Google 推出最新的 Gemini 2.5 Pro (实验版) AI 模型,并以罕见的速度向免费用户开放。该模型支持模拟推理,提高了准确性,并在 LMSYS 聊天机器人竞技场排行榜上名列前茅。免费用户可在网页上试用,但有使用限制,无法上传文件,且有未明确的token和使用次数限制。
Gartner 预测,大语言模型 (LLM) 提供商市场即将进入"灭绝"阶段。在竞争激烈的环境下,巨额资本投入成为主要挑战。预计到 2025 年,全球生成式 AI 支出将达到 6440 亿美元,较 2024 年增长 76%。专家认为,LLM 市场将经历类似云计算市场的整合,最终可能只剩少数几家主导者。
苹果公司推出新一代 AI 智能服务 Apple Intelligence,包括优先通知等多项功能。该服务现已覆盖欧盟用户和 Vision Pro 设备,并支持多种语言。新功能随 iOS 18.4 等系统更新推出,涵盖通知管理、图像生成和视频创作等方面,进一步提升用户体验。