上一篇系列文章向大家介绍了 Hello AI World。接下来的这篇文章将讲述 Hello AI World 的环境安装。
首先进入项目网页 https://github.com/dusty-nv/jetson-inference,在系统安装(System Setup)处里有三个部分:
第一个部分 “安装 Jetpack” 已经在上一篇系列文章中讲解地非常清楚,因此可以忽略不管;第二个部分 “执行Docker 容器版本”,考虑到大部分初学者对 Docker 比较陌生,如果熟悉 Docker 应用技巧的人,可以自行进入下载合适的版本去使用,本文不做说明。第三个部分是标准的安装流程,也是通用性最高的方法,本文将讲述以这个方式为主进行的安装。在安装过程中需要下载实验中需要用到的一些网络模型,全部合计共 4.7GB 容量,当然也可以只下载系统预设的 2.7GB 容量的模型,因此整个实验建议只是保留 4~6GB 的存储空间给这个项目使用。
现在就开始整个项目的安装流程,按照官网的编译版安装流程,请在 Jetson 设备上打开一个终端,然后执行以下指令:
$ sudo apt-get update
$ sudo apt-get -y install git cmake libpython3-dev python3-numpy
$ git clone --recursive https://github.com/dusty-nv/jetson-inference
$ cd jetson-inference
$ mkdir build && cd build
$ cmake ../
到这个步骤时,由于会执行 “预训练模型下载”与 “ Pytorch 安装”这两个步骤,前一个步骤会跳出一个对话框(如下图),系统预设定选择的模型总共约 2.7GB 容量,您也可以自行调整要下载的内容。
选择 <OK> 之后就开始下载,由于这些由 NVIDIA 预训练好的模型,都存放在国外原厂的网盘空间位置,国内下载可能会受到网速的影响,这部分请自行解决。
这个步骤执行之后,接着会跳出下一个画面,表示要为系统安装 Pytorch 框架,这个部分是为了做模型训练(training)用的,建议也选择执行。
这两个步骤所耗费的时间是最久的,也是无法预测的,请自行处理。
如果前面 Download Models 步骤中,没有将全部模型都下载的话,后面想要使用未下载的模型时,只要到 tools 目录下面执行 download-models.sh 即可,完整指令如下:
$ cd ~/jetson-inference/tools
$ ./download-models.sh
接下来就要开始编译并安装 jetson-inference 项目的代码,如果前面的步骤没有跳到别的地方的话,现在应该在 <~/jetson-inferecne/build> 目录下,前一个步骤 “cmake ..” 指令会在这个目录建立接下来编译所需要的 Makefile 配置文件,检查一下,如果有这个文件就表示可以继续进行下面步骤,全部编译的时间在 Jetson Nano 大约 3 分钟就能完成。
$ make -j$(nproc) # 使用 -j$(nproc)可以最大限度使用 CPU 核,加速编译
$ sudo make install # 要将编译结果写入系统文件夹所以需要用 sudo
$ sudo ldconfig # 立即让编译的结果生效
编译完成之后,可以用 video-viewer 这个工具来简单测试一下,您可以选择以下三种方式的任何一种,测试 jetson-inference 系统安装状况:
# 如果有装上 CSI 摄像头,请执行以下指令,预设输入源就是 CSI 摄像头
$ video-viewer
# 如果有装上 USB 摄像头,在 video-viewer 后面接上 USB 摄像头编号上
$ video-viewer/dev/video1
# 如果还没装上任何一个摄像头,可以用视频文件来测试
$ video-viewer test.mp4
只要能正常执行(如下图),就表示这个开源项目的编译与安装是正常的。
以上就是本篇文章的内容,接下去就要开始按部就班,带着大家进一步开始 Hello AI World 的深度学习之旅。
好文章,需要你的鼓励
施耐德电气以“新质服务+产业向‘新’行”为主题,第六次参会,展示全新升级的“新质服务体系”,围绕创新驱动、生态协同和行业赋能三大核心领域,以全新升级的“新质服务体系”,助力中国产业向高端化、智能化、绿色化迈进。
香港中文大学联合上海AI实验室推出Dispider系统,首次实现AI视频"边看边聊"能力。通过创新的三分式架构设计,将感知、决策、反应功能独立分离,让AI能像人类一样在观看视频过程中进行实时交流,在StreamingBench测试中显著超越现有系统,为教育、娱乐、医疗、安防等领域的视频AI应用开启新可能。
甲骨文正在成为大规模基础设施供应商的可靠选择。该公司通过AI技术推动应用开发,构建GenAI模型并将智能代理集成到应用套件中。CEO萨弗拉·卡茨透露,公司剩余履约义务达4553亿美元,同比增长4.6倍,并预测OCI收入将从2026财年的180亿美元增长至2030财年的1440亿美元。甲骨文正积极布局AI推理市场,凭借其作为全球最大企业私有数据托管方的优势地位,有望在云计算领域实现重大突破。
Atla公司发布Selene Mini,这是一个仅有80亿参数的AI评估模型,却在11个基准测试中全面超越GPT-4o-mini。通过精心的数据筛选和创新训练策略,该模型不仅能准确评判文本质量,还能在医疗、金融等专业领域表现出色。研究团队将模型完全开源,为AI评估技术的普及和发展做出贡献。