在本系列上一篇文章中,给大家介绍了 face_recognition 库的身份识别功能。接下来,我们将用几篇文章为读者讲解 NVIDIA 的 Jetson-inference,这个对于初学者尤为实用。本篇文章就来为大家介绍 Hello AI World。
要使用 NVIDIA Jetson Nano 边缘计算设备,就一定要先熟悉官方所提供的入门教程,在 https://elinux.org/Jetson_Nano#Getting_Started 即可找到。(如下图)
在 Nano 4GB 版与 2GB 版的教程目录中,最下方的 “Next Step”(如下图)都推荐使用者去 “Hello AI World” 项目进行体验。
按照过去的经验,所有应用的 “Hello World” 都只是简单地打印一条信息而已,验证系统是否已经正常安装,其实并无其他意义。
但是 NVIDIA “Hello AI World” 却与之不同,其不仅包含视觉类深度学习的三大主流推理应用:图像分类、物件检测、语义分割,最重要的还在于以下三点:
1. 本项目是开源的,包括 C++ 版本源代码与 Python 版本的源代码
2. 本项目提供非常高阶的接口,重点 API 只有以下 5 个:
(1) imageNet():用来处理图像分类的推理识别计算
(2) detectNet():用来处理物件检测的推理识别计算
(3) segNet():用来处理语义分割的推理识别计算
(4) videoSource():集成 7 种数据源输入类型与 16 种数据格式
(5) videoOutput():集成 5 种输出类型与 16 种数据格式
3. 本项目非常高效地调用了 NVIDIA Jetson 的硬件计算资源,提供了非常优异的性能:(1) imageNet()、detectNet() 与 segNet() 三种推理计算,都自动调用 TensorRT 加速引擎,展现出了非常优异的性能,在 Jetson Nano 上都能得到 20FPS 以上的实时性能。
(2) videoSource() 与 videoOutput() 这两个负责输入/输出的函数,自动调用 Jetson 上的 NVENC / NVDEC 这些硬解码芯片的功能,协助处理视频编解码时的计算,此外也使用高阶技巧,将许多标准的图像处理计算,包括放大/缩小、旋转、颜色空间转换、FFT 计算等,全部有效调用上百个 CUDA 计算核来处理,让整个输入/输出部分变得非常流畅。
因此,本系列的内容,就是对 “Hello AI World” 做深入的挖掘,让大家不仅能够轻松体验 Jetson 设备的深度学习识别性能,更希望大家能够利用好这些已经编译好的库,去开发自己的专属应用。
接下来将正式进入 “Hello AI World” 项目,事实上点击链接之后,就会进入到 Github 的一个仓(repository),链接地址为 https://github.com/dusty-nv/jetson-inference ,首页部分会看到如下面的图片。
在 “Table of Contents” 下面的 “Hello AI World” 的列表,是本系列的主题内容,主要包括“系统安装(System Setup)”、“推理识别(inference)” 与 “模型训练(Training)” 三大部分,由于内容十分丰富,因此需要按部就班地针对个别细节,引导使用者逐步熟悉并掌握深度学习三大应用的技巧。
接下来列出 Hello AI World 项目内容:
1. 系统设置(System Setup)
2. 推理识别(Inference)
3. 模型培训(Training)
以上所列出的内容,主要着重于每个功能函数的实验,其中以更换预训练模型选项去改变识别效果,以及调整输入、输出种类为主,主要是为了能够让使用者在两小时内,轻松体验三大应用的推理识别应用,以及 Jetson 的强大性能。
不过大部分初学者经历了体验过程的兴奋感之后,发现还是不知该如何修改代码或调用函数,去执行自己想要开发的应用。因此在我们所安排的系列文章中,所有的范例全部以 Python 代码为主,并且会比较深入地说明代码级别的内容,让大家能更深入掌握使用的技巧,最终能善加利用这个优异的深度学习库去开发自己的应用。
下一篇文章起,我们将带领大家一起来学习如何快速构建 AI 应用。
好文章,需要你的鼓励
临近年底,苹果公布了2024年App Store热门应用和游戏榜单,Temu再次成为美国下载量最多的免费应用。
云基础设施市场现在已经非常庞大,很难再有大的变化。但是,因为人们可以轻松地关闭服务器、存储和网络——就像开启它们那样,预测全球云基础设施开支可能非常困难。