在前一篇我們有提到,只要取得 save_model 後,我們就可以開始跟 Model 互動,這部分 Tensorflow 已經幫我們想好了,我們可以使用 Tensorflow Serving
來幫我們自動產生 RESTful API 或 gRPC API。
https://www.tensorflow.org/tfx/guide/serving
# 呼叫 API 範例
curl http://localhost:8501/v1/models/saved_model_counter
echo "deb [arch=amd64] http://storage.googleapis.com/tensorflow-serving-apt stable tensorflow-model-server tensorflow-model-server-universal" | sudo tee /etc/apt/sources.list.d/tensorflow-serving.list && \
curl https://storage.googleapis.com/tensorflow-serving-apt/tensorflow-serving.release.pub.gpg | sudo apt-key add -
apt-get update && apt-get install tensorflow-model-server
透過指令啟動 TensorFlow ModelServer
tensorflow_model_server --port=8500 --rest_api_port=8501 \
--model_name=${MODEL_NAME} --model_base_path=${MODEL_BASE_PATH}/${MODEL_NAME}
tensorflow_model_server --port=8500 --rest_api_port=8501 \
--model_name=my_model --model_base_path=/models/my_model
my_model
,如果沒指定則預設為 model
。/models/my_model
,如果沒指定則預設為 /models
資料夾。