代码拉取完成,页面将自动刷新
同步操作将从 PaddlePaddle/PaddleSeg 强制同步,此操作会覆盖自 Fork 仓库以来所做的任何修改,且无法恢复!!!
确定后同步将在后台操作,完成时将刷新页面,请耐心等待。
简体中文 | English
使用PaddleSeg训练好模型后,我们将模型导出为预测模型、使用预测库进行部署,可以实现更快的推理速度。
本教程基于一个示例介绍模型导出的过程。
完成模型训练后,精度最高的模型权重保存在path/to/save/best_model/model.pdparams
。
本示例为了演示方便,大家执行如下命令或者点击链接下载PP-LiteSeg模型训练好的权重。
wget https://paddleseg.bj.bcebos.com/dygraph/cityscapes/pp_liteseg_stdc1_cityscapes_1024x512_scale0.5_160k/model.pdparams
在PaddleSeg根目录下,执行如下命令,导出预测模型,保存在output/inference_model
目录。
python tools/export.py \
--config configs/pp_liteseg/pp_liteseg_stdc1_cityscapes_1024x512_scale0.5_160k.yml \
--model_path model.pdparams \
--save_dir output/inference_model
导出脚本参数解释:
参数名 | 用途 | 是否必选项 | 默认值 |
---|---|---|---|
config | 配置文件的路径 | 是 | - |
model_path | 模型权重的路径 | 否 | - |
save_dir | 预测模型保存的目录 | 否 | ./output/inference_model |
input_shape | 设置模型的输入shape (N*C*H*W ),比如传入--input_shape 1 3 1024 1024 。如果不设置input_shape,默认导出模型的输入shape是[-1, 3, -1, -1] 。 预测shape固定时,建议指定input_shape参数。 |
否 | None |
output_op | 设置在模型末端添加的输出算子,支持[argmax , softmax , none ]。PaddleSeg模型默认返回logits (N*C*H*W );添加argmax 算子,可以得到每个像素的分割类别,结果的维度是N*H*W 、数据类型是int32 ;添加softmax 算子,可以得到每个像素每类的概率,结果的维度是N*C*H*W 、数据类型是float32
|
否 | argmax |
with_softmax | 即将废弃的输入参数,建议使用--output_op 。在网络末端添加softmax算子。由于PaddleSeg组网默认返回logits,如果想要部署模型获取概率值,可以置为True |
否 | False |
without_argmax | 即将废弃的输入参数,建议使用--output_op 。由于PaddleSeg组网默认返回logits,为部署模型可以直接获取预测结果,我们默认在网络末端添加argmax算子。如果设置--without_argmax ,则不会在网络末端添加argmax算子。 |
否 | False |
注意:
如下是导出的预测模型文件。
output/inference_model
├── deploy.yaml # 部署相关的配置文件,主要说明数据预处理方式等信息
├── model.pdmodel # 预测模型的拓扑结构文件
├── model.pdiparams # 预测模型的权重文件
└── model.pdiparams.info # 参数额外信息,一般无需关注
导出预测模型后,我们可以使用以下方式部署模型:
部署场景 | 使用预测库 | 教程 |
---|---|---|
服务器端(Nvidia GPU和X86 CPU) Python部署 | Paddle Inference | 文档 |
服务器端(Nvidia GPU和X86 CPU) C++端部署 | Paddle Inference | 文档 |
移动端部署 | Paddle Lite | 文档 |
服务化部署 | Paddle Serving | 文档 |
前端部署 | Paddle JS | 文档 |
此处可能存在不合适展示的内容,页面不予展示。您可通过相关编辑功能自查并修改。
如您确认内容无涉及 不当用语 / 纯广告导流 / 暴力 / 低俗色情 / 侵权 / 盗版 / 虚假 / 无价值内容或违法国家有关法律法规的内容,可点击提交进行申诉,我们将尽快为您处理。