代码拉取完成,页面将自动刷新
同步操作将从 PaddlePaddle/PaddleVideo 强制同步,此操作会覆盖自 Fork 仓库以来所做的任何修改,且无法恢复!!!
确定后同步将在后台操作,完成时将刷新页面,请耐心等待。
本章节介绍 PP-TSN 模型如何转化为 ONNX 模型,并基于 ONNX 引擎预测。
需要准备 Paddle2ONNX 模型转化环境,和 ONNX 模型预测环境。
Paddle2ONNX 支持将 PaddlePaddle 模型格式转化到 ONNX 模型格式,算子目前稳定支持导出 ONNX Opset 9~11,部分Paddle算子支持更低的ONNX Opset转换。 更多细节可参考 Paddle2ONNX
python3.7 -m pip install paddle2onnx
# 建议安装 1.9.0 版本,可根据环境更换版本号
python3.7 -m pip install onnxruntime==1.9.0
PP-TSN inference模型下载
# 下载inference模型到PaddleVideo/inference/ppTSN/ 目录下
mkdir -p ./inference
wget -P ./inference/ https://videotag.bj.bcebos.com/PaddleVideo-release2.3/ppTSN.zip
# 解压inference模型
pushd ./inference
unzip ppTSN.zip
popd
模型转换
使用 Paddle2ONNX 将 Paddle inference模型转换为 ONNX 格式模型:
paddle2onnx \
--model_dir=./inference/ppTSN \
--model_filename=ppTSN.pdmodel \
--params_filename=ppTSN.pdiparams \
--save_file=./inference/ppTSN/ppTSN.onnx \
--opset_version=10 \
--enable_onnx_checker=True
执行完毕后,可以发现 ./inference/ppTSN
目录下生成了一个 ONNX 格式的模型文件 ppTSN.onnx
接下来就可以用 ONNX 格式模型进行预测,其用法与paddle 预测模型类似 执行如下命令:
python3.7 deploy/paddle2onnx/predict_onnx.py \
--input_file data/example.avi \
--config configs/recognition/pptsn/pptsn_k400_videos.yaml \
--onnx_file=./inference/ppTSN/ppTSN.onnx
结果如下:
Current video file: data/example.avi
top-1 class: 5
top-1 score: 0.9998553991317749
可以验证该结果与Paddle inference的预测结果完全一致
此处可能存在不合适展示的内容,页面不予展示。您可通过相关编辑功能自查并修改。
如您确认内容无涉及 不当用语 / 纯广告导流 / 暴力 / 低俗色情 / 侵权 / 盗版 / 虚假 / 无价值内容或违法国家有关法律法规的内容,可点击提交进行申诉,我们将尽快为您处理。