在这个案例中将演示如何为 TensorFlow Serving 运行一个 Docker 容器,这是一组组件,用于导出经过训练的 TensorFlow 模型,并使用标准的 tensorflow_model_server 来为实现的模型服务。TensorFlow Serving 服务器发掘出新的导出模型并使用 gRPC 来提供服务。
我们将使用 Docker 并假定你熟悉该系统,可参考 https://www.docker.com/ 了解 Docker 的相关知识并安装它。我们要做的是建立一个 TensorFlow Serving 版本。
docker build--pull-t$USER/tensorflow-serving-devel-f Dockerfile.devel
docker run-it$USER/tensorflow-serving-devel