Triton推理服务器13-模型与调度器(3)

前面两篇文章,已经将Triton的“无状态模型”、“有状态模型”与标准调度器的动态批量处理器与序列批量处理器的使用方式,做了较完整的说明。

前面两篇文章,已经将Triton的“无状态模型”、“有状态模型”与标准调度器的动态批量处理器与序列批量处理器的使用方式,做了较完整的说明。

大部分的实际应用都不是单纯的推理模型就能完成服务的需求,需要形成前后关系的工作流水线。例如一个二维码扫描的应用,除了需要第一关的二维码识别模型之外,后面可能还得将识别出来的字符传递给语句识别的推理模型、关键字搜索引擎等功能,最后找到用户所需要的信息,反馈给提出需求的用户端。

本文的内容要说明Triton服务器形成工作流水线的“集成推理”功能,里面包括“集成模型ensemble model”与“集成调度器ensemble scheduler”两个部分。下面是个简单的推理流水线示意图,目的是对请求的输入图像最终反馈“图像分类”与“语义分割”两个推理结果:

Triton推理服务器13-模型与调度器(3)

当接收到集成模型的推断请求时,集成调度器将:

  1. 确认请求中的“IMAGE”张量映射到预处理模型中的输入“RAW_IMAGE”。
  2. 检查集合中的模型,并向预处理模型发送内部请求,因为所需的所有输入张量都已就绪。
  3. 识别内部请求的完成,收集输出张量并将内容映射到“预处理图像”,这是集成中已知的唯一名称。
  4. 将新收集的张量映射到集合中模型的输入。在这种情况下,“classification_model”和“segmentation_model“的输入将被映射并标记为就绪。
  5. 检查需要新收集的张量的模型,并向输入就绪的模型发送内部请求,在本例中是分类模型和分割模型。请注意,响应将根据各个模型的负载和计算时间以任意顺序排列。
  6. 重复步骤3-5,直到不再发送内部请求,然后用集成输出名称的张量去响应推理请求。

整个流水线使用3个模型,并进行以下三个处理步骤:

  1. 使用image_prepoecess_model模型,将原始图像处理成preprocessed_image数据;
  2. preprocessed_image数据传递给classification_model模型,执行图像分类推理,最终返回“CLASSIFICATION”结果;
  3. preprocessed_image数据传递给segmentation_model模型,执行语义分割推理计算,最终返回“SEGMENTATION”结果;

在执行过程中,推理服务器必须支持以下的功能,才能将多种推理模型集成一个或多个工作流水线,去执行完整的工作流程:

  • 支持一个或多个模型的流水线以及这些模型之间输入和输出张量的连接;
  • 处理多个模型的模型拼接或数据流,例如“数据处理->推理->数据后处理”等;
  • 收集每个步骤中的输出张量,并根据规范将其作为其他步骤的输入张量;
  • 所集成的模型能继承所涉及模型的特征,在请求方的元数据必须符合集成中的模型;

为了实现的推理流水线功能,Triton服务器使用集成模型集成调度器的配合,来完成这类工作流水线的搭建管理。接着就执行以下步骤来创建一个流水线所需要的配套内容:

  1. 在模型仓里为流水线创建一个新的“组合模型”文件夹,例如为“ensemble_model”;
  2. 在目路下创建新的config.pbtxt,并且使用“platform: "ensemble"”来定义这个模型要执行集成功能;
  3. 定义集成模型:

无论工作流水线中调用多少个模型,Triton服务器都将这样的组合视为一个模型,与其他模型配置一样,需要定义输入与输出节点的张量类型与尺度。

以上面实示例图中的要求,这个集成模型有一个名为“IMAGE”的输入节,与两个名为“CLASSIFICATION”与“SEGMENTATION”的输出节点,至于数据类型与张量维度内容,就得根据实际使用的模型去匹配。这部分配置的参考内容如下:

name: "ensemble_model"

platform: "ensemble"

max_batch_size: 1

input [

  {

    name: "IMAGE"

    data_type: TYPE_STRING

    dims: [ 1 ]

  }

]

output [

  {

    name: "CLASSIFICATION"

    data_type: TYPE_FP32

    dims: [ 1000 ]

  },

  {

    name: "SEGMENTATION"

    data_type: TYPE_FP32

    dims: [ 3, 224, 224 ]

  }

]

从这个内容中可以看出,Triton服务器将这个集成模型视为一个独立模型。

  1. 定义模型的集成调度器:

这部分使用“ensemble_scheduling”来调动集成调度器,将使用到模型与数据形成完整的交互关系。

在上面示例图中,灰色区块所形成的工作流水线中,使用到image_prepoecess_modelclassification_modelsegmentation_model三个模型,以及preprocessed_image数据在模型中进行传递。

下面提供这部分的范例配置内容,一开始使用“ensemble_scheduling”来调用集成调度器,里面再用“step”来定义模组之间的执行关系,透过模型的“input_map”与“output_map”的“key:value”对的方式,串联起模型之间的交互动作:

ensemble_scheduling {

  step [

    {

      model_name: "image_preprocess_model"

      model_version: -1

      input_map {

        key: "RAW_IMAGE"

        value: "IMAGE"

      }

      output_map {

        key: "PREPROCESSED_OUTPUT"

        value: "preprocessed_image"

      }

    },

    {

      model_name: "classification_model"

      model_version: -1

      input_map {

        key: "FORMATTED_IMAGE"

        value: "preprocessed_image"

      }

      output_map {

        key: "CLASSIFICATION_OUTPUT"

        value: "CLASSIFICATION"

      }

    },

    {

      model_name: "segmentation_model"

      model_version: -1

      input_map {

        key: "FORMATTED_IMAGE"

        value: "preprocessed_image"

      }

      output_map {

        key: "SEGMENTATION_OUTPUT"

        value: "SEGMENTATION"

      }

    }

  ]

}

这里简单说明一下工作流程:

  1. 模型image_preprocess_model接收外部输入的IMAGE数据,进行图像预处理任务,输出preprocessed_image数据;
  2. 模型classification_model的输入为preprocessed_image,表示这个模型的工作是在image_preprocess_model之后的任务,执行的推理输出为CLASSIFICATION
  3. 模型segmentation_model的输入为preprocessed_image,表示这个模型的工作是在image_preprocess_model之后的任务,执行的退输出为SEGMENTATION
  4. 上面两步骤可以看出classification_modelsegmentation_model属于分支的同级模型,与上面工作流图中的要求一致。

完成以上的步骤,就能用集成模型与集成调度器的搭配,来创建一个完整的推理工作流任务,相当简单。

不过这类集成模型中,还有以下几个需要注意的重点:

  • 这是Triton服务器用来执行用户定义模型流水线的抽象形式,由于没有与集成模型关联的物理实例,因此不能为其指定instance_group字段;
  • 不过集成模型内容所组成的个别模型(例如image_preprocess_model),可以在其配置文件中指定instance_group,并在集成接收到多个请求时单独支持并行执行
  • 由于集成模型将继承所涉及模型的特性,因此在请求起点的元数据(本例为“IMAGE”)必须符合集成中的模型,如果其中一个模型是有状态模型,那么集成模型的推理请求应该包含有状态模型中提到的信息,这些信息将由调度器提供给有状态模型

总的来说,Triton服务器提供的集成功能还是相对容易理解与操作的,只要大家留意模型之间所传递的数据张量格式与尺度,就能轻松搭建起这样的推理工作流,去面对实际环境中更多变的使用需求。【完】

来源:业界供稿

0赞

好文章,需要你的鼓励

2023

02/02

15:34

分享

点赞

邮件订阅