当前位置:   article > 正文

Tensorflow 2.x 模型-部署与实践_适用tensorflow2的模型

适用tensorflow2的模型

Tensorflow 2.x 模型-部署与实践

《基于TensorFlow Serving的YOLO模型部署》文章中有介绍tensorflow 1.x版本的模型如何利用TensorFlow Serving部署。本文接着上篇介绍tensorflow2.x版本的模型部署。

工作原理

架构图

**核心概念 **

**⑦ ServableHandler:**servable实例,用于处理client发送的请求

servable的生命周期:

● 一个Source插件会为一个特定的version创建一个Loader。该Loaders包含了在加载Servable时所需的任何元数据

● Source会使用一个callback来通知该Aspired Version的Manager

● 该Manager应用该配置过的Version Policy来决定下一个要采用的动作,它会被unload一个之前已经加载过的version,或者加载一个新的version

● 如果该Manager决定它是否安全,它会给Loader所需的资源,并告诉该Loader来加载新的version

● Clients会告知Manager,即可显式指定version,或者只请求最新的version。该Manager会为该Servable返回一个handle

Tensorflow 2.x 模型部署

TF serving环境准备

Tensorflow Serving环境最简单的安装方式是docker镜像安装。

  1. docker pull tensorflow/sering:last
  1. sudo apt-get install -y nvidia-docker2
  1. docker pull tensorflow/serving:latest-devel-gpu

模型保存—savedmodel

Tensorflow 2.x模型有以下几种格式:

  1. model.save_weights(“./xxx.ckpt” , save_format=”tf”)
  1. model.save(“./xxx.h5”)
  2. model.save_weights(“./xxx.h5”, save_format=”h5
声明:本文内容由网友自发贡献,不代表【wpsshop博客】立场,版权归原作者所有,本站不承担相应法律责任。如您发现有侵权的内容,请联系我们。转载请注明出处:https://www.wpsshop.cn/w/很楠不爱3/article/detail/330728
推荐阅读
相关标签
  

闽ICP备14008679号