前面安装Jetson Orin开发套件的开发环境过程,并没有将DeepStream智能分析套件安装进去,因此需要独立的安装过程,这里提供三种安装方式给使用者参考。
请访问https://developer.nvidia.com/deepstream-getting-started ,进入后会看到如下图的DeepStream SDK 6.1版本说明:

右表所列的是对于系统的要求,在Jetson的部分必须是JetPack 5.0.1 DP版本以上,Jetson Orin开发套件刚好符合这个要求,因此可以安装这个6.1版本的DeepStream。
页面往下会看到如下图的“Downloads”部分:

点选左下角“I Agree To…”左边的框,就会跳出下图的选项:

这里推荐下载“Download .tar”压缩包的方式会比较简单。点击后会弹出下面画面:

这是要求使用者必须拥有NVIDIA开发者社区账号,如果没有的话就申请一个,至于申请与登录的步骤,这里就不多赘述了。
将压缩包下载至Jetson Orin开发套件之后,请在Jetson Orin上执行以下步骤:
|
$
$ |
# 安装依赖库 sudo apt install -y libssl1.0.0 libgstreamer1.0-0 gstreamer1.0-tools gstreamer1.0-plugins-good gstreamer1.0-plugins-bad gstreamer1.0-plugins-ugly gstreamer1.0-libav libgstrtspserver-1.0-0 libjansson4=2.11-1 libgstreamer-plugins-base1.0-dev libgstreamer1.0-dev libgstrtspserver-1.0-dev libx11-dev # 重新安装nvidia-l4t的相关库 sudo apt install --reinstall -y nvidia-l4t-gstreamer nvidia-l4t-multimedia nvidia-l4t-core |
现在请到前面下载的deepstream_sdk_v6.1.0_jetson.tbz2的位置,执行以下指令开始安装DeepStream开发工具:
|
$ $ $ |
sudo tar -xvf deepstream_sdk_v6.1.0_jetson.tbz2 -C / cd /opt/nvidia/deepstream/deepstream sudo ./install.sh && sudo ldconfig |
接下来执行下面指令,检验DeepStream的安装是否成功:
|
$ |
deepstream-app --version-all |
第一次执行会出现一些警告(warning)信息,再执行一次就会正常出现下图信息:

这样就表示安装完成了。
这种安装需要有一台装有Ubuntu或CentOS的x86电脑来辅助,相对繁琐一些。这个工具可以在https://developer.nvidia.com/nvidia-sdk-manager下载,直接使用dpkg进行安装就可以,然后开启SDK Manager进行安装。
这种方式比较麻烦的部分是SDK Mananger的登录步骤(如下图),与前一种方式同样需要有NVIDIA开发者社区的账号与密码,如果没有也得申请一个。但是后台验证步骤需要连上NVIDIA的服务器,因此有时需要重复多次才能成功。

登录成功之后进入“STEP 1”选择安装的内容,请勾选下图最下方“DeepStream”选项,然后点选“CONTINUE”进入下一步。

在“STEP 2”里最重要的,就是“取消Jetson OS”选项,如下图所示,因为我们只需要安装DeepStream,而不需要安装操作系统。

选择好之后,勾选最下方“I accept the terms…”选项,就能进入下个步骤。系统弹出下图对话框,这里有两种连线的选择方式:

选择好之后,如果是USB方式则下面的IP预设为192.168.55.1,如果是Ethernet的话则需要自行查清楚Jetson Orin的IP地址。然后输入Jetson Orin的Username与Password,再点击下方“Install”按钮,就能执行DeepStream的安装。
这是当下最热门的应用与部署技术,从JetPack 4.0版之后,都为Jetson设备安装好Docker基础环境,我们可以直接使用。
DeepStream从5.1开始提供Docker版的使用环境,只需要从NGC下载镜像后就能在Jetson设备上启动使用,不过使用过程需要先熟悉Docker的指令与设备对应关系,这里先教大家在Jetson Orin开发套件上安装Docker版的DeepStream套件。
登录https://catalog.ngc.nvidia.com/orgs/nvidia/containers/deepstream-l4t 会进到下图页面中,点击右上角“Pull Tag”下拉选项就会显示目前所支持的各种版本。

Jetson Orin开发套件支持的Jetpack 5.x版本,目前只支持DeepStream 6.1,因此我们需要点击选择下数第二个“6.1-base”,系统已经将下载指令“docker pull nvcr.io/nvidia/deepstream-l4t:6.1-base”复制到剪贴板里面,我们只要在命令行视窗上使用Ctrl-Shift-V组合键,就能完整粘贴的指令:
|
$ |
docker pull nvcr.io/nvidia/deepstream-l4t:6.1-base |
这样就能从NGC下载deepstream-l4t:6.1-base镜像到Jetson Orin开发套件上。至于使用的方式,主要启动指令如下:
|
$
$ |
# 允许外部应用程序连接到主机的X显示器: xhost + # 允许外部应用程序连接到主机的X显示器: sudo docker run -it --rm --net=host --runtime nvidia -e DISPLAY=$DISPLAY \ -w /opt/nvidia/deepstream/deepstream-6.1 -v /tmp/.X11-unix/:/tmp/.X11-unix \ nvcr.io/nvidia/deepstream-l4t:6.1-base |
如果要添加摄像头的话,需要在这个指令里添加以下内容:
这样就可以开始使用DeepStream 6.1来进行测试与开发了。
好文章,需要你的鼓励
CPU架构讨论常聚焦于不同指令集的竞争,但实际上在单一系统中使用多种CPU架构已成常态。x86、Arm和RISC-V各有优劣,AI技术的兴起更推动了对性能功耗比的极致需求。当前x86仍主导PC和服务器市场,Arm凭借庞大生态系统在移动和嵌入式领域领先,RISC-V作为开源架构展现巨大潜力。未来芯片设计将更多采用异构计算,多种架构协同工作成为趋势。
KAIST AI团队通过深入分析视频生成AI的内部机制,发现了负责交互理解的关键层,并开发出MATRIX框架来专门优化这些层。该技术通过语义定位对齐和语义传播对齐两个组件,显著提升了AI对"谁对谁做了什么"的理解能力,在交互准确性上提升约30%,为AI视频生成的实用化应用奠定了重要基础。
Vast Data与云计算公司CoreWeave签署了价值11.7亿美元的多年期软件许可协议,这标志着AI基础设施存储市场的重要转折点。该协议涵盖Vast Data的通用存储层及高级数据平台服务,将帮助CoreWeave提供更全面的AI服务。业内专家认为,随着AI集群规模不断扩大,存储系统在AI基础设施中的占比可能从目前的1.9%提升至3-5%,未来五年全球AI存储市场规模将达到900亿至2000亿美元。
乔治亚理工学院和微软研究团队提出了NorMuon优化器,通过结合Muon的正交化技术与神经元级自适应学习率,在1.1B参数模型上实现了21.74%的训练效率提升。该方法同时保持了Muon的内存优势,相比Adam节省约50%内存使用量,并开发了高效的FSDP2分布式实现,为大规模AI模型训练提供了实用的优化方案。