Jetson Nano 2GB 系列文章(23): “Hello AI World的物件识别应用

如果您跟着我们仔细走过前面9篇“Hello AI World”文章,相信应该都把整个jetson-inference的结构与逻辑都摸清楚了,接下来的重点,就是在目前深度学习中比较普及的“物件检测”应用。

 如果您跟着我们仔细走过前面9“Hello AI World”文章,相信应该都把整个jetson-inference的结构与逻辑都摸清楚了,接下来的重点,就是在目前深度学习中比较普及的物件检测应用,重点主要有以下三部分:

  • 简单说明物件检测的内容。
  • 使用本项目的detecnet物件分类指令,进行多样化的推理识别测试。
  • 深入说明jetson.inference模块的detectNet()以及相关的函数用法。

如此让大家能快速掌握这项物件检测功能,以及开发代码的重点。

  • 物件检测(object detection)简单说明

    这是比图像分类更进一步的应用,因为日常生活中,在绝大部分可看到的画面中,不会只存在一个物体,通常是多种类别的多个物体(如下图),左图识别出有四个人、右图识别出一个人与一匹马,当然真的要细部再探索的话,还有其他类别的物体也可以被识别,这是视觉类深度学习中使用频率最高的一种应用。

Jetson Nano 2GB 系列文章(23): “Hello AI World的物件识别应用

   在物件检测的识别中,还只是比较概略性地将物体用矩形框的方式来标识,那能不能将物体的实际形状更细腻地标识出来呢?当然可以,这就是更高阶的语义分割应用,留在下一篇文章里面说明。

    前面的图像分类是以一张图像为单位,这里的物件检测则是以物件框为单位,因此所需要的数据集就不仅仅是图像了,还要将图像中所需要的类别加以标注,然后存成特定格式之后,提供给训练框架去进行模型训练,这是相当耗费人力的一个过程,而且标注的细腻程度也会对最终的精确度产生影响。

    关于这个模型的训练过程,会在后面的文章中带着大家动手做一次,这也是整个Hello AI World项目中的一部分,而且也提供非常好用的工具,协助大家采集数据、标注物件框、进行模型训练等。

    以上就是物件检测的简单说明,接下去直接使用项目提供的detectnet指令来进行实验。

  • detectnet指令的使用

imagenet的调用逻辑是一样的,当系统编译好之后,就生成detectnet指令,可以在Jetson设备中任何地方调用。同样的,项目也为detectnet准备了几个预训练好的网络模型,可以非常轻松地调用,预训练模型如下表:

Jetson Nano 2GB 系列文章(23): “Hello AI World的物件识别应用

系统预设的神经网络是“SSD-Mobilenet-v2”,基于91种分类的COCO数据集进行模型训练,详细的类别内容可以参考~/jetson-inference/data/networks目录下的ssd_coco_labels.txt,事实上能识别的物件有90种,另外加一个“unlabeled”种类。

detectnet的参数调用与imagenet几乎一致,输入源与输出标的的支持方式完全相同,因此我们可以执行下面指令,直接看看得到怎样的效果:

 

 

1

 

2

 

 

3

4

# 不带任何参数,全部使用系统预设值,输入源为CSI摄像头

  • detectnet

# USB摄像头为输入源,将输出结果存成output.mp4文件

  • detectnet /dev/video1 output.mp4

# 以视频文件为输入源,输出到一个“目录”,存在很多的图像文件,并且将网络模型改为multiped-500

  • mkdir output
  • detectnet output.mp4 output --network=multiped

 

在执行过程中,会看到命令终端不断出现类似下图的信息,里面显示一些重要的信息,包括使用的网络模型文件“4个执行阶段占用时间检测到满足阈值的物件数物件类别/置信度,以及物件位置等信息。

Jetson Nano 2GB 系列文章(23): “Hello AI World的物件识别应用

detectnet也能导出RTP视频流到指定的电脑(如下图),详细用法请参考前面UtilsvideoOutput工具一文中有详细说明,这个用法的实用度非常高,可以让你将Jetson Nano 2GB设备放置在任何能接网络的角落,不断读取摄像头内容在Jetson上执行物件识别,然后将结果传输到你的桌面电脑或笔记本上,这样你就可以非常轻松地进行监控。

Jetson Nano 2GB 系列文章(23): “Hello AI World的物件识别应用

输入“detectnet --help”可以得到完整的帮助信息,由于内容太多,我们在这里不占用篇幅去说明,多尝试一些指令的组合,会让你进一步掌握这个指令的重点。

接下来看看如何在Python代码中,调用这个项目的物件检测函数,来开发自己的物件检测应用。

  • detectNet()函数的用法

与前面图像分类的逻辑一样,作者虽然在~/jetson-inference/python/examples下面提供了一个my-detection.py范例,这个就是我们一开始所示范的“10行代码威力的内容,这个范例的好处是代码量最少但对应的缺点就是弹性小、完整度不够,因此从务实的角度,我们还是推荐以/usr/local/bin/detect.py这只代码为主,这只代码能执行的功能,与detectnet指令几乎一致。

imagenet.py代码相同的,一开始有一段参数解析的指令,如下截图:

Jetson Nano 2GB 系列文章(23): “Hello AI World的物件识别应用

这部分同样请参考先前的参数解析功能文章,在这里不重复赘述。接下来我们将与物件检测有关的指令挑出来说明,这样可以让读者更加容易将焦点集中在有关的部分:

51行:net = jetson.inference.detectNet(opt.network, sys.argv, opt.threshold)

jetson.inferene.detectNet()函数建立net这个物件检测对象,与前面的imageNet()的逻辑是一样的,不过这里所输入的参数,除了network(网络模型类别)之外,还多了一个threshold(阈值)。因为物件检测的功能,是要在图像中识别出所有可能的物件,如果没有一个最低门槛的限制,就会满屏都是物件。

系统已经给这两个参数都提供预设值,network预设为“SSD-Mobilenet-v2”threshold预设值为0.5

如果要在代码外部利用参数去改变设定,就可以如以下方式:

--network=multiped,表示要使用“Multiped-500”这个网络模型

--threshold=0.3,表示将阈值改成0.3

这样net对象就具备了执行物件检测的相关功能,然后再继续以下的步骤。

63行:detections = net.Detect(img, overlay=opt.overlay)

这道指令,就是将input.Capture()获取的一帧图形,传入net.Detect()函数去执行物件检测的推理识别计算,另一个参数“overlay”的功能是检测覆盖的一个标识,只影响显示输出的方式,与检测结果并没有关系,大部分时候都不需要去改变

这里最重要的是detections这个数组变量,由于每帧图像所检测出来物件数量是不固定的,数组的结构在说明文件中并未完整表达,因此需要从执行的代码中去找到蛛丝马迹,这个部分在下一道指令中可以找到答案。

66~69行:

print("detected {:d} objects in image".format(len(detections)))

for detection in detections:

print(detection)

这部分执行完之后,会在命令终端上显示两个很重要的信息:

  • 本帧图像所找到满足阈值的物件数量。
  • 前面变量detections的数据结构。

 

在命令终端执行以下指令,

1

  • detectnet.py

看看所显示的信息,如下截屏:

Jetson Nano 2GB 系列文章(23): “Hello AI World的物件识别应用

这里可以看到,代码最后面“len(detections)”的值,就是本帧图像所检测到的物件数量,而detections的数据结构就是:

ClassID:类别编号

Confidence:置信度

Left:标框左坐标

Top:标框上坐标

Right:标框右坐标

Bottom:标框下坐标

Width:框的宽度 = Right - Left

Height:框的高度 = Bottom - Top

Area:面积 = Width x Height

Center:中心点坐标 =  ( (Left+Right)/2, (Top+Bottom)/2 )

确认了net.Detect() 返回值之后,就能很轻易地以这些数据去开发满足特定要求的应用。

 

至于后面的output.Render(img)output.Status()这些函数,在前面的文章里面都讲解的很清楚,这里不再重复。

 

    到这里,要利用Hello AI World这个项目所提供的库资源,去开发自己的应用程序,就显得非常简单了。

来源:业界供稿

0赞

好文章,需要你的鼓励

2021

07/02

14:58

分享

点赞

邮件订阅
白皮书