前面介绍过使用deepstream-app工具,启用多个视频进行车辆与行人的识别,并且启动“追踪”功能进行物件追踪的高级功能,接下来就教大家如何在deepstream-app里调用USB与CSI摄像头,并且与先前的视频同时启用来进行物件识别的应用。
这里使用Jetson Nano 2GB作为实验平台,上面安装一个CSI摄像头与一个USB摄像头。
在调用摄像头之前,建议先确认一下摄像头的位置与分辨率等信息,因为DeepStream会检查设定文件里的分辨率是否符合要求。使用v4l2-utils工具包来检查摄像头的信息,请按照以下步骤进行安装,并且检测摄像头分辨率:
sudo apt-get install v4l2-utils v4l2-ctl --list-devices |
下面显示的信息,表示目前接上一个imx-219的CSI摄像头,以及一个USB 2.0摄像头。
接下执行以下指令,查看个别摄像头可使用的分辨率为多少:
v4l2-ctl --list-formats-ext --device=0 v4l2-ctl --list-formats-ext --device=1 |
下面显示的信息,表示CSI摄像头(device=0)能支持3264x2464、3264x1848、1920x080、1640x1232、1280x720等5种分辨率
下面显示的信息,表示USB摄像头(device=1)能支持640x480、352x288、320x240、176x144、160x120等5种分辨率
接下来看看在DeepStream路径(/opt/nvidia/deepstream/deepstream)的samples/configs/deepstream-app 下面有个 source2_csi_usb_dec_infer_resnet_int8.txt文件,这是专门以CSI与USB摄像头为输入源的配置,里面可以看到以下关于摄像头设置的内容:
[source0] enable=1 #Type - 1=CameraV4L2 2=URI 3=MultiURI 4=RTSP 5=CSI type=5 camera-width=1280 camera-height=720 camera-fps-n=30 camera-fps-d=1 camera-csi-sensor-id=0
[source1] enable=1 #Type - 1=CameraV4L2 2=URI 3=MultiURI type=1 camera-width=1280 camera-height=720 camera-fps-n=30 camera-fps-d=1 camera-v4l2-dev-node=6 |
在[source1]下面的参数有点小问题,用粗体标识出来,因为我们装载的USB摄像头最大分辨率为640x480,因此这里的camera-width与camera-height都必须修改为摄像头所支持的分辨率,此外就是最下面的camera-v4l2-dev-node的部分,前面检查出来这台Jetson Nano 2GB上的USB摄像头编号为“1”,请按照实际状况修改。
将上面三地方修改完后,就可以直接执行以下指令去启动摄像头:
deepstream-app -c source2_csi_usb_dec_infer_resnet_int8.txt |
由于配置文件里面原本设定使用INT8的精度去做推理,但是Jetson Nano 2GB并不支持,因此DeepStream自动切换成FP16精度,这需要重新生成对应的TensorRT引擎,会花点时间。
执行之后就能看的画面上出现类似以下的画面,上下分别是CSI摄像头与USB摄像头的显示,由于选择的模型是检测“Car”与“Person”的,所以在这里没有检测到任何目标物件。
另外看一下先前下指令的终端上,显示在Jetson Nano 2GB上的执行性能如下截屏
两个摄像头都能达到18FPS左右性能,总性能在36FPS左右,已经非常接近实时识别的速度,非常好。您可以试试旋转摄像头或者将手放在前面晃一晃,看看延迟状况如何?应该是很流畅的。
接下来,再添加两个视频文件一起进来执行检测,我们以系统上提供的视频文件做示范:
将这两个的设定添加到文件里的[source2]与[source3],内容如下:
[source2] enable=1 type=2 uri=file://../../streams/sample_1080p_h264.mp4
[source3] enable=1 type=2 uri=file:///usr/share/visionworks/sources/data/pedestrians.h264 |
最后调整文件最开始的“[tiled-display]”下面,将“columns=”的值改成“2”,存档后重新执行下面指令:
deepstream-app -c source2_csi_usb_dec_infer_resnet_int8.txt |
现在可以看到如下图,两个摄像头与两个视频总共4个输入源同时执行的推理的功能。
接下来看看此时的性能如何?(如下图)居然每个输入源只剩下8FPS的性能,总性能在32FPS左右,似乎有点慢了。这个问题有补救的办法吗?
实时上问题出现在[primary-gie]使用的模型上,因为Jetson Nano(含2GB)的计算资源较为缺乏,因此DeepStream专门为Nano提供resnet10.caffemodel_b8_gpu0_fp16.engine特调版加速引擎,存放在“../../models/Primary_Detector_Nano”路径下,这是第一个需要做修改的地方:
其次就是下面的“config-file”置换成支持Nano版本的配置文件,如下:
修改完使用的模型之后,重新执行deepstream-app进行物件检测,发现每个数据源的识别性能,立即从原本的8FPS提升到14FPS,也就是总性能从32FPS上升到56FPS左右,提升大约1.8倍。到这里否已经满足样的性能呢?
如果还觉得不满足的时候,那就继续看下去,还有大招在后面。只要我们将[primary-gie]下面的“interval”参数设为“1”,这时候再执行看看性能如何?
下面的截屏是调整interval参数之后的性能,有没有吓一跳?瞬间提升一倍。
经过三步骤调整之后,我们在Jetson Nano 2GB上的4个数据源,识别性能都超过27FPS,总性能合计超过100FPS,并且维持识别效果。
现在是不是对Jetson Nano 2GB的性能感到非常满意了!【完】
好文章,需要你的鼓励
传统数据工程面临数据质量差、治理不善等挑战,成为AI项目的最大障碍。多智能体AI系统通过协作方式正在彻底改变数据准备、治理和应用模式。Google Cloud基于Gemini大语言模型构建协作生态系统,让不同智能体专门负责数据工程、科学、治理和分析等任务。系统通过分层架构理解组织环境,自主学习历史工作流程,能够预防问题并自动处理重复性任务,大幅提升效率。
中科大团队开发出LongAnimation系统,解决了长动画自动上色中的色彩一致性难题。该系统采用动态全局-局部记忆机制,能够为平均500帧的动画进行稳定上色,性能比现有方法提升35-58%。核心创新包括SketchDiT特征提取器、智能记忆模块和色彩优化机制,可大幅提升动画制作效率。
微软推出Copilot调优功能,让企业通过低代码工具利用自动化微调技术训练企业数据。与基于公开数据的通用AI模型不同,企业需要理解内部数据和流程的专业化模型。Gartner预测专业化GenAI模型市场将在2026年翻倍至25亿美元。这些模型通常基于开源模型构建,部署为小语言模型,提供更好的成本控制和数据安全性,同时更易符合欧盟AI法案要求。
南开大学团队开发出DepthAnything-AC模型,解决了现有AI距离估算系统在恶劣天气和复杂光照条件下性能下降的问题。通过创新的扰动一致性训练框架和空间距离约束机制,该模型仅用54万张图片就实现了在雨雪、雾霾、夜晚等复杂环境下的稳定距离判断,同时保持正常条件下的优秀性能,为自动驾驶和机器人导航等应用提供了重要技术支撑。