模型部署介绍
在完成了模型的训练后可以将模型以某种方式部署到服务端或者存放到设备端对外提供实时的模型推理服务。「模型部署(Serving)」就是 OpenBayes 提供的服务端模型推理功能。
创建 Serving 需要以下步骤:
- 导出训练好的模型,模型的训练可以在 Gear - 算力容器 中完成
- 编写
predictor.py
模型部署脚本,其编写规则在 Serving 服务编写 有详细的介绍,在 openbayes-serving-examples 模型仓库中有编写样例作为参考
其中「数据绑定」与创建算力容器时类似,同时支持容器输出和数据仓库中的路径绑定。
在 模型部署 - 快速上手 中介绍了创建一个模型部署的完整样例。