1 Star 0 Fork 93

xiongying / PaddleSeg

forked from PaddlePaddle / PaddleSeg 
加入 Gitee
与超过 1200万 开发者一起发现、参与优秀开源项目,私有仓库也完全免费 :)
免费加入
克隆/下载
cpp_inference_cn.md 7.86 KB
一键复制 编辑 原始数据 按行查看 历史
cc 提交于 2022-04-11 11:36 . update cpp deploy doc (#1989)

Paddle Inference部署(C++)

1. 说明

本文档介绍使用Paddle Inference的C++接口在Linux服务器端(NV GPU或者X86 CPU)部署分割模型的示例,主要步骤包括:

  • 准备环境
  • 准备模型和图片
  • 编译、执行

飞桨针对不同场景,提供了多个预测引擎部署模型(如下图),详细使用方法请参考文档

inference_ecosystem

此外,PaddleX也提供了C++部署的示例和文档,具体参考链接

2. 准备环境

2.1 准备基础环境

如果在X86 CPU上部署模型,不需要下面CUDA、cudnn、TensorRT的准备工作。

如果在Nvidia GPU上部署模型,必须安装必CUDA、cudnn。此外,PaddleInference在Nvidia GPU上支持使用TensorRT进行加速,可以视需要安装。

此处,我们提供两个版本的CUDA、cudnn、TensorRT文件下载。

wget https://paddle-inference-dist.bj.bcebos.com/tensorrt_test/cuda10.1-cudnn7.6-trt6.0.tar
wget https://paddle-inference-dist.bj.bcebos.com/tensorrt_test/cuda10.2-cudnn8.0-trt7.1.tgz

下载解压后,CUDA和cudnn可以参考网上文档或者官方文档(Cuda Doc, cudnn Doc)进行安装。TensorRT只需要设置库路径,比如:

export LD_LIBRARY_PATH=$LD_LIBRARY_PATH:/work/TensorRT-7.1.3.4/lib

2.2 准备Paddle Inference C++预测库

如果在X86 CPU上部署模型,进入C++预测库下载“manylinux_cpu_xxx”命名的PaddleInference库。

如果在Nvidia GPU上部署模型,进入C++预测库下载对应CUDA、Cudnn、TRT、GCC版本的PaddleInference库。

不同C++预测库可以根据名字进行区分。请根据机器的操作系统、CUDA版本、cudnn版本、使用MKLDNN或者OpenBlas、是否使用TenorRT等信息,选择准确版本。(建议选择版本>=2.0的预测库)

下载paddle_inference.tgz压缩文件后进行解压,将解压的paddle_inference文件保存到PaddleSeg/deploy/cpp/下。

如果大家需要编译Paddle Inference C++预测库,可以参考文档,此处不再赘述。

2.3 安装其他库

本示例使用OpenCV读取图片,所以需要安装OpenCV。在实际部署中,大家视需要安装。

执行如下命令下载、编译、安装OpenCV。

wget https://github.com/opencv/opencv/archive/3.4.7.tar.gz
tar -xf 3.4.7.tar.gz

mkdir -p opencv-3.4.7/build
cd opencv-3.4.7/build

install_path=/usr/local/opencv3
cmake .. -DCMAKE_INSTALL_PREFIX=${install_path} -DCMAKE_BUILD_TYPE=Release
make -j
make install

cd ../..

本示例使用Yaml读取配置文件信息。在实际部署中,大家视需要安装。

执行如下命令下载、编译、安装Yaml。

wget https://github.com/jbeder/yaml-cpp/archive/refs/tags/yaml-cpp-0.7.0.zip
unzip yaml-cpp-0.7.0.zip
mkdir -p yaml-cpp-yaml-cpp-0.7.0/build
cd yaml-cpp-yaml-cpp-0.7.0/build
cmake -DYAML_BUILD_SHARED_LIBS=ON ..
make -j
make install

本示例使用Gflags和Glog,在实际部署中,大家视需要安装。

git clone https://github.com/gflags/gflags.git
mkdir -p gflags/build
cd gflags/build
cmake ..
make -j
make install
git clone https://github.com/google/glog
mkdir -p glog/build
cd glog/build
cmake ..
make -j
make install

3. 准备模型和图片

PaddleSeg/deploy/cpp/目录下执行如下命令,下载测试模型用于测试。如果需要测试其他模型,请参考文档导出预测模型。

wget https://paddleseg.bj.bcebos.com/dygraph/demo/stdc1seg_infer_model.tar.gz
tar xf stdc1seg_infer_model.tar.gz

下载cityscapes验证集中的一张图片

wget https://paddleseg.bj.bcebos.com/dygraph/demo/cityscapes_demo.png

请检查PaddleSeg/deploy/cpp/下存放了预测库、模型、图片,如下。

PaddleSeg/deploy/cpp
|-- paddle_inference        # 预测库
|-- stdc1seg_infer_model    # 模型
|-- cityscapes_demo.png     # 图片
...

4. X86 CPU上部署

执行sh run_seg_cpu.sh,会进行编译,然后在X86 CPU上执行预测,分割结果会保存在当前目录的“out_img.jpg“图片。

5. Nvidia GPU上部署

在Nvidia GPU上部署模型,我们需要提前明确部署场景和要求,主要关注多次预测时输入图像的尺寸是否变化。

定义:固定shape模式是指多次预测时输入图像的尺寸是不变的,动态shape模式是指每次预测时输入图像的尺寸可以变化。

飞桨PaddleInference在Nvidia GPU上部署模型,支持两种方式:

  • Naive方式:使用Paddle自实现的Kernel执行预测;它使用相同的配置方法支持固定shape模式和动态shape模式。
  • TRT方式:使用集成的TensorRT执行预测,通常TRT方式比Naive方式速度更快;它使用不同的配置方法支持固定shape模式和动态shape模式。

5.1 Naive方式-部署

如果使用Naive方式部署Seg分割模型(固定Shape模式或者动态Shape模式),可以执行sh run_seg_gpu.sh

该脚本会进行编译、加载模型、加载图片、执行预测,结果保存在“out_img.jpg“图片。

5.2 TRT方式-固定Shape模式-部署

使用TRT方式、固定Shape模式来部署PaddleSeg分割模型:

  • 打开run_seg_gpu_trt.sh脚本,设置TENSORRT_ROOT为机器中TensorRT库的路径,比如TENSORRT_ROOT='/work/TensorRT-7.1.3.4/'
  • 执行 sh run_seg_gpu_trt.sh
  • 预测结果会保存在“out_img.jpg“图片。

对于PaddleSeg分割模型,通常是支持任意输入size,模型内部存在动态Shape的OP。 所以使用TRT方式、固定Shape模式来部署时,经常会出现错误。这时就推荐使用TRT方式、动态Shape模式来部署。

5.3 TRT方式-动态Shape模式-部署

PaddleInference有多种方法使用TRT方式、固定Shape模式来部署PaddleSeg分割模型,此处推荐一种通用性较强的方法,主要步骤包括:准备预测模型和样本图像;离线收集动态Shape;部署执行。

  • 准备预测模型和样本图像

准备预测模型和样本图像,是用于离线收集动态Shape,所以准备的样本图像需要包含实际预测时会遇到的最大和最小图像尺寸

在前面步骤,我们已经准备好预测模型和一张测试图片。

  • 离线收集动态Shape

请参考PaddleSeg安装文档安装PaddlePaddle和PaddleSeg的依赖项。

PaddleSeg/deploy/cpp路径下,执行如下命令。

python ../python/collect_dynamic_shape.py \
    --config stdc1seg_infer_model/deploy.yaml \
    --image_path ./cityscapes_demo.png \
    --dynamic_shape_path ./dynamic_shape.pbtxt

通过指定预测模型config文件和样本图像,脚本会加载模型、读取样本图像、统计并保存动态Shape到./dynamic_shape.pbtxt文件。

如果有多张样本图像,可以通过--image_path指定图像文件夹。

  • 部署执行

打开run_seg_gpu_trt_dynamic_shape.sh脚本,设置TENSORRT_ROOT为机器上TensorRT库的路径,设置DYNAMIC_SHAPE_PATH为动态Shape文件。

执行sh run_seg_gpu_trt_dynamic_shape.sh,预测结果会保存在“out_img.jpg“图片。

结果如下图,该图片使用了直方图均衡化,便于可视化。

out_img

Python
1
https://gitee.com/VisionDeveloper/PaddleSeg.git
git@gitee.com:VisionDeveloper/PaddleSeg.git
VisionDeveloper
PaddleSeg
PaddleSeg
release/2.6

搜索帮助