Nvidia即将推出Jetson AGX Orin平台的一款生产用模块,旨在嵌入设备内部,并为机器人和边缘计算等各种应用提供AI加速。
Jetson AGX Orin 32GB生产模块将结合一个基于Nvidia Ampere架构的GPU以及一个基于Arm的8核Cortex-A78AE CPU,还有32GB内存和64GB嵌入式(eMMC)闪存存储,搭载在一块尺寸为100mm x 87mm(比Raspberry Pi略大)的板子上。
不过,Jetson AGX Orin 32GB模块的价格比Raspberry Pi的价格要高得多,高达999美元(约合817.32英镑),这让任何感兴趣的用户都有些失望了。
这个模块是Nvidia今年早些时候在GTC大会上公布的四款基于Jetson Orin的生产模块中的第一款,除此之外,Nvidia还推出了Jetson AGX Orin开发工具包。Jetson AGX Orin的64GB版本将于10月上市,而另外两款功能相对弱一些的Orin NX生产模块将于今年晚些时候上市。
根据Nvidia提供的规格数据显示,Jetson AGX Orin 32GB模块每秒可进行200万亿次运算(TOPS),低于开发者套件中硬件的275 TOPS,后者拥有2048核Ampere架构的GPU。而Jetson AGX Orin 32GB中的是1792核GPU。不过据称该模块的性能是此前Jetson Xavier一代模块的6倍。
据Nvidia称,全球合作伙伴网络中约有三十多家技术提供商已经上市了由这款新模块驱动的商用产品。
与开发者工具包一样,这款生产模块采用Nvidia Jetson软件堆栈,让开发者能够在Jetson上构建和部署完全加速的AI应用,包括Nvidia JetPack SDK开发环境,以及用于调整性能的CUDA-X库和工具集合。
Nvidia还表示,Nvidia提供的其他平台也可以采用这款Jetson AGX Orin 32GB模块,例如用于机器人技术的Isaac、用于计算机视觉的DeepStream、用于自然语言理解的Riva,以及使用训练模型加速模型开发的TAO工具包。
该模块提供了一系列I/O选项,从2 x8、1x4 和2 x1 PCIe 4.0通道、千兆位和万兆以太网端口、8K显示输出和USB端口,此外还提供了更多的UART、SPI、I2S和I2C端口,以及CAN总线和GPIO。但是,其中一些I/O选项是共享通用PHY (UPHY)连接器上的通道。
据Nvidia称,这些功能让开发者能够构建和部署Orin驱动的系统,这些系统配备了摄像头、适用于边缘AI、机器人、物联网和嵌入式应用的传感器。
Nvidia表示,合作伙伴将提供可用于生产的系统,让客户能够应对从制造、零售和建筑到农业、物流、医疗保健和智慧城市等行业面临的各种挑战。
好文章,需要你的鼓励
一加正式推出AI功能Plus Mind和Mind Space,将率先在一加13和13R上线。Plus Mind可保存、建议、存储和搜索屏幕内容,并将信息整理到Mind Space应用中。该功能可通过专用按键或手势激活,能自动创建日历条目并提供AI搜索功能。一加还计划推出三阶段AI战略,包括集成大语言模型和个人助手功能,同时将推出AI语音转录、通话助手和照片优化等工具。
北航团队推出Easy Dataset框架,通过直观的图形界面和角色驱动的生成方法,让普通用户能够轻松将各种格式文档转换为高质量的AI训练数据。该工具集成了智能文档解析、混合分块策略和个性化问答生成功能,在金融领域实验中显著提升了AI模型的专业表现,同时保持通用能力。项目已开源并获得超过9000颗GitHub星标。
预计到2035年,数据中心用电需求将增长一倍以上,达到440TWh,相当于整个加利福尼亚州的用电量。AI工作负载预计将占2030年数据中心需求的50-70%。传统冷却系统电机存在功率浪费问题,通常在30-50%负载下运行时效率急剧下降。采用高效率曲线平坦的适配电机可显著降低冷却系统功耗,某大型数据中心通过优化电机配置减少了近4MW冷却功耗,为13500台AI服务器腾出空间,年增收入900万美元。
卢森堡计算机事件响应中心开发的VLAI系统,基于RoBERTa模型,能够通过阅读漏洞描述自动判断危险等级。该系统在60万个真实漏洞数据上训练,准确率达82.8%,已集成到实际安全服务中。研究采用开源方式,为网络安全专家提供快速漏洞风险评估工具,有效解决了官方评分发布前的安全决策难题。