1 Star 0 Fork 15

zyunzlong / Serving

forked from PaddlePaddle / Serving 
加入 Gitee
与超过 1200万 开发者一起发现、参与优秀开源项目,私有仓库也完全免费 :)
免费加入
克隆/下载
Encryption_CN.md 1.63 KB
一键复制 编辑 原始数据 按行查看 历史
huangjianhui 提交于 2021-11-15 18:31 . Update Encryption_CN.md

加密模型预测

(简体中文|English)

Padle Serving提供了模型加密预测功能,本文档显示了详细信息。

原理

采用对称加密算法对模型进行加密。对称加密算法采用同一密钥进行加解密,它计算量小,速度快,是最常用的加密方法。

获得加密模型

普通的模型和参数可以理解为一个字符串,通过对其使用加密算法(参数是您的密钥),普通模型和参数就变成了一个加密的模型和参数。

我们提供了一个简单的演示来加密模型。请参阅examples/C++/encryption/encrypt.py

启动加密服务

假设您已经有一个已经加密的模型(在encrypt_server/路径下),您可以通过添加一个额外的命令行参数 --use_encryption_model来启动加密模型服务。

CPU Service

python -m paddle_serving_server.serve --model encrypt_server/ --port 9300 --use_encryption_model

GPU Service

python -m paddle_serving_server.serve --model encrypt_server/ --port 9300 --use_encryption_model --gpu_ids 0

此时,服务器不会真正启动,而是等待密钥。

Client Encryption Inference

首先,您必须拥有模型加密过程中使用的密钥。

然后你可以用这个密钥配置你的客户端,当你连接服务器时,这个密钥会发送到服务器,服务器会保留它。

一旦服务器获得密钥,它就使用该密钥解析模型并启动模型预测服务。

模型加密推理示例

模型加密推理示例, 请参见examples/C++/encryption/

C++
1
https://gitee.com/zyunzlong/Serving.git
git@gitee.com:zyunzlong/Serving.git
zyunzlong
Serving
Serving
v0.8.2

搜索帮助