इस पेज का अनुवाद Cloud Translation API से किया गया है.
Switch to English

ट्रेन और TensorFlow सर्विंग के साथ एक TensorFlow मॉडल की सेवा

यह गाइड स्नीकर्स और शर्ट की तरह कपड़ों की छवियों को वर्गीकृत करने के लिए एक तंत्रिका नेटवर्क मॉडल को प्रशिक्षित करता है, प्रशिक्षित मॉडल को बचाता है, और फिर इसे TensorFlow Serving के साथ कार्य करता है। TensorFlow में मॉडलिंग और प्रशिक्षण के बजाय TensorFlow सर्विंग पर ध्यान केंद्रित किया जाता है, इसलिए एक संपूर्ण उदाहरण के लिए जो मॉडलिंग और प्रशिक्षण पर ध्यान केंद्रित करता है, बेसिक वर्गीकरण उदाहरण को देखता है।

यह मार्गदर्शिका Tf.keras , TensorFlow में मॉडल बनाने और प्रशिक्षित करने के लिए एक उच्च-स्तरीय API का उपयोग करती है।

import sys

# Confirm that we're using Python 3
assert sys.version_info.major is 3, 'Oops, not running Python 3. Use Runtime > Change runtime type'
# TensorFlow and tf.keras
print("Installing dependencies for Colab environment")
!pip install -Uq grpcio==1.26.0

import tensorflow as tf
from tensorflow import keras

# Helper libraries
import numpy as np
import matplotlib.pyplot as plt
import os
import subprocess

print('TensorFlow version: {}'.format(tf.__version__))
Installing dependencies for Colab environment
[K     |████████████████████████████████| 2.4MB 4.6MB/s 
[?25hInstalling TensorFlow
TensorFlow 2.x selected.
TensorFlow version: 2.1.0-rc1

अपना मॉडल बनाएं

fashion_mnist = keras.datasets.fashion_mnist
(train_images, train_labels), (test_images, test_labels) = fashion_mnist.load_data()

# scale the values to 0.0 to 1.0
train_images = train_images / 255.0
test_images = test_images / 255.0

# reshape for feeding into the model
train_images = train_images.reshape(train_images.shape[0], 28, 28, 1)
test_images = test_images.reshape(test_images.shape[0], 28, 28, 1)

class_names = ['T-shirt/top', 'Trouser', 'Pullover', 'Dress', 'Coat',
               'Sandal', 'Shirt', 'Sneaker', 'Bag', 'Ankle boot']

print('\ntrain_images.shape: {}, of {}'.format(train_images.shape, train_images.dtype))
print('test_images.shape: {}, of {}'.format(test_images.shape, test_images.dtype))
Downloading data from https://storage.googleapis.com/tensorflow/tf-keras-datasets/train-labels-idx1-ubyte.gz
32768/29515 [=================================] - 0s 0us/step
Downloading data from https://storage.googleapis.com/tensorflow/tf-keras-datasets/train-images-idx3-ubyte.gz
26427392/26421880 [==============================] - 0s 0us/step
Downloading data from https://storage.googleapis.com/tensorflow/tf-keras-datasets/t10k-labels-idx1-ubyte.gz
8192/5148 [===============================================] - 0s 0us/step
Downloading data from https://storage.googleapis.com/tensorflow/tf-keras-datasets/t10k-images-idx3-ubyte.gz
4423680/4422102 [==============================] - 0s 0us/step

train_images.shape: (60000, 28, 28, 1), of float64
test_images.shape: (10000, 28, 28, 1), of float64

अपने मॉडल को प्रशिक्षित करें और उसका मूल्यांकन करें

चलो सबसे सरल संभव CNN का उपयोग करें, क्योंकि हम मॉडलिंग भाग पर ध्यान केंद्रित नहीं कर रहे हैं।

model = keras.Sequential([
  keras.layers.Conv2D(input_shape=(28,28,1), filters=8, kernel_size=3, 
                      strides=2, activation='relu', name='Conv1'),
  keras.layers.Flatten(),
  keras.layers.Dense(10, activation=tf.nn.softmax, name='Softmax')
])
model.summary()

testing = False
epochs = 5

model.compile(optimizer='adam', 
              loss='sparse_categorical_crossentropy',
              metrics=['accuracy'])
model.fit(train_images, train_labels, epochs=epochs)

test_loss, test_acc = model.evaluate(test_images, test_labels)
print('\nTest accuracy: {}'.format(test_acc))
Model: "sequential"
_________________________________________________________________
Layer (type)                 Output Shape              Param #   
=================================================================
Conv1 (Conv2D)               (None, 13, 13, 8)         80        
_________________________________________________________________
flatten (Flatten)            (None, 1352)              0         
_________________________________________________________________
Softmax (Dense)              (None, 10)                13530     
=================================================================
Total params: 13,610
Trainable params: 13,610
Non-trainable params: 0
_________________________________________________________________
Train on 60000 samples
Epoch 1/5
60000/60000 [==============================] - 11s 185us/sample - loss: 0.5466 - accuracy: 0.8087
Epoch 2/5
60000/60000 [==============================] - 5s 79us/sample - loss: 0.4032 - accuracy: 0.8580
Epoch 3/5
60000/60000 [==============================] - 5s 76us/sample - loss: 0.3613 - accuracy: 0.8712
Epoch 4/5
60000/60000 [==============================] - 5s 75us/sample - loss: 0.3406 - accuracy: 0.8797
Epoch 5/5
60000/60000 [==============================] - 4s 75us/sample - loss: 0.3247 - accuracy: 0.8848
10000/10000 [==============================] - 1s 73us/sample - loss: 0.3510 - accuracy: 0.8747

Test accuracy: 0.8747000098228455

अपना मॉडल सहेजें

TensorFlow में अपने प्रशिक्षित मॉडल को लोड करने के लिए हमें सबसे पहले इसे SavedModel फॉर्मेट में सेव करना होगा। यह एक अच्छी तरह से परिभाषित निर्देशिका पदानुक्रम में एक प्रोटोबॉफ़ फ़ाइल बनाएगा, और इसमें एक संस्करण संख्या शामिल होगी। TensorFlow सर्विंग हमें एक मॉडल के किस संस्करण, या "सर्व करने योग्य" का चयन करने की अनुमति देता है, जब हम अनुमान लगाने का अनुरोध करते हैं। प्रत्येक संस्करण को दिए गए पथ के तहत एक अलग उप-निर्देशिका में निर्यात किया जाएगा।

# Fetch the Keras session and save the model
# The signature definition is defined by the input and output tensors,
# and stored with the default serving key
import tempfile

MODEL_DIR = tempfile.gettempdir()
version = 1
export_path = os.path.join(MODEL_DIR, str(version))
print('export_path = {}\n'.format(export_path))

tf.keras.models.save_model(
    model,
    export_path,
    overwrite=True,
    include_optimizer=True,
    save_format=None,
    signatures=None,
    options=None
)

print('\nSaved model:')
!ls -l {export_path}
export_path = /tmp/1

Warning:tensorflow:From /tensorflow-2.1.0/python3.6/tensorflow_core/python/ops/resource_variable_ops.py:1786: calling BaseResourceVariable.__init__ (from tensorflow.python.ops.resource_variable_ops) with constraint is deprecated and will be removed in a future version.
Instructions for updating:
If using Keras pass *_constraint arguments to layers.
INFO:tensorflow:Assets written to: /tmp/1/assets

Saved model:
total 84
drwxr-xr-x 2 root root  4096 Jan  7 23:15 assets
-rw-r--r-- 1 root root 74086 Jan  7 23:15 saved_model.pb
drwxr-xr-x 2 root root  4096 Jan  7 23:15 variables

अपने सहेजे गए मॉडल की जाँच करें

हम अपने saved_model_cli में MetaGraphDefs (मॉडल) और SignatureDefs (जिन तरीकों से आप कॉल कर सकते हैं) को देखने के लिए कमांड लाइन यूटिलिटी saved_model_cli का उपयोग करेंगे। TensorFlow Guide में SavedModel CLI की इस चर्चा को देखें।

saved_model_cli show --dir {export_path} --all
बा 2 बी 1 एफ 9486

यह हमें हमारे मॉडल के बारे में बहुत कुछ बताता है! इस मामले में हमने सिर्फ अपने मॉडल को प्रशिक्षित किया है, इसलिए हम पहले से ही इनपुट और आउटपुट को जानते हैं, लेकिन अगर हमने ऐसा नहीं किया है तो यह महत्वपूर्ण जानकारी होगी। यह हमें सब कुछ नहीं बताता, जैसे कि यह उदाहरण के लिए ग्रेस्केल इमेज डेटा है, लेकिन यह एक शानदार शुरुआत है।

अपने मॉडल को TensorFlow सर्व करने के साथ परोसें

पैकेज स्रोत के रूप में TensorFlow सर्विंग वितरण URI जोड़ें:

हम TensorFlow को एप्टीट्यूड का उपयोग करके सेवित करने की तैयारी कर रहे हैं क्योंकि यह कोलाब डेबियन वातावरण में चलता है। हम उन tensorflow-model-server की सूची में tensorflow-model-server पैकेज tensorflow-model-server बारे में एप्टीट्यूड जानता है। ध्यान दें कि हम रूट के रूप में चल रहे हैं।

# This is the same as you would do from your command line, but without the [arch=amd64], and no sudo
# You would instead do:
# echo "deb [arch=amd64] http://storage.googleapis.com/tensorflow-serving-apt stable tensorflow-model-server tensorflow-model-server-universal" | sudo tee /etc/apt/sources.list.d/tensorflow-serving.list && \
# curl https://storage.googleapis.com/tensorflow-serving-apt/tensorflow-serving.release.pub.gpg | sudo apt-key add -

!echo "deb http://storage.googleapis.com/tensorflow-serving-apt stable tensorflow-model-server tensorflow-model-server-universal" | tee /etc/apt/sources.list.d/tensorflow-serving.list && \
curl https://storage.googleapis.com/tensorflow-serving-apt/tensorflow-serving.release.pub.gpg | apt-key add -
!apt update
deb http://storage.googleapis.com/tensorflow-serving-apt stable tensorflow-model-server tensorflow-model-server-universal
  % Total    % Received % Xferd  Average Speed   Time    Time     Time  Current
                                 Dload  Upload   Total   Spent    Left  Speed
100  2943  100  2943    0     0  11496      0 --:--:-- --:--:-- --:--:-- 11496
OK
Get:1 http://storage.googleapis.com/tensorflow-serving-apt stable InRelease [3,012 B]
Get:2 https://cloud.r-project.org/bin/linux/ubuntu bionic-cran35/ InRelease [3,626 B]
Ign:3 https://developer.download.nvidia.com/compute/cuda/repos/ubuntu1804/x86_64  InRelease
Ign:4 https://developer.download.nvidia.com/compute/machine-learning/repos/ubuntu1804/x86_64  InRelease
Hit:5 https://developer.download.nvidia.com/compute/cuda/repos/ubuntu1804/x86_64  Release
Get:6 https://developer.download.nvidia.com/compute/machine-learning/repos/ubuntu1804/x86_64  Release [564 B]
Get:7 https://developer.download.nvidia.com/compute/machine-learning/repos/ubuntu1804/x86_64  Release.gpg [833 B]
Hit:8 http://ppa.launchpad.net/graphics-drivers/ppa/ubuntu bionic InRelease
Hit:9 http://archive.ubuntu.com/ubuntu bionic InRelease
Get:10 http://security.ubuntu.com/ubuntu bionic-security InRelease [88.7 kB]
Get:11 http://storage.googleapis.com/tensorflow-serving-apt stable/tensorflow-model-server amd64 Packages [354 B]
Get:12 https://cloud.r-project.org/bin/linux/ubuntu bionic-cran35/ Packages [81.6 kB]
Get:13 http://archive.ubuntu.com/ubuntu bionic-updates InRelease [88.7 kB]
Get:14 http://storage.googleapis.com/tensorflow-serving-apt stable/tensorflow-model-server-universal amd64 Packages [364 B]
Get:15 http://ppa.launchpad.net/marutter/c2d4u3.5/ubuntu bionic InRelease [15.4 kB]
Get:17 https://developer.download.nvidia.com/compute/machine-learning/repos/ubuntu1804/x86_64  Packages [30.4 kB]
Get:18 http://archive.ubuntu.com/ubuntu bionic-backports InRelease [74.6 kB]
Get:19 http://ppa.launchpad.net/marutter/c2d4u3.5/ubuntu bionic/main Sources [1,749 kB]
Get:20 http://security.ubuntu.com/ubuntu bionic-security/universe amd64 Packages [796 kB]
Get:21 http://archive.ubuntu.com/ubuntu bionic-updates/main amd64 Packages [1,073 kB]
Get:22 http://security.ubuntu.com/ubuntu bionic-security/main amd64 Packages [776 kB]
Get:23 http://security.ubuntu.com/ubuntu bionic-security/restricted amd64 Packages [21.3 kB]
Get:24 http://archive.ubuntu.com/ubuntu bionic-updates/multiverse amd64 Packages [10.8 kB]
Get:25 http://archive.ubuntu.com/ubuntu bionic-updates/universe amd64 Packages [1,324 kB]
Get:26 http://archive.ubuntu.com/ubuntu bionic-updates/restricted amd64 Packages [35.5 kB]
Get:27 http://ppa.launchpad.net/marutter/c2d4u3.5/ubuntu bionic/main amd64 Packages [844 kB]
Fetched 7,019 kB in 4s (1,913 kB/s)
Reading package lists... Done
Building dependency tree       
Reading state information... Done
21 packages can be upgraded. Run 'apt list --upgradable' to see them.

TensorFlow सर्व करना

यह आप सभी की जरूरत है - एक कमांड लाइन!

apt-get install tensorflow-model-server
Reading package lists... Done
Building dependency tree       
Reading state information... Done
The following package was automatically installed and is no longer required:
  libnvidia-common-430
Use 'apt autoremove' to remove it.
The following NEW packages will be installed:
  tensorflow-model-server
0 upgraded, 1 newly installed, 0 to remove and 21 not upgraded.
Need to get 140 MB of archives.
After this operation, 0 B of additional disk space will be used.
Get:1 http://storage.googleapis.com/tensorflow-serving-apt stable/tensorflow-model-server amd64 tensorflow-model-server all 2.0.0 [140 MB]
Fetched 140 MB in 2s (78.8 MB/s)
Selecting previously unselected package tensorflow-model-server.
(Reading database ... 145674 files and directories currently installed.)
Preparing to unpack .../tensorflow-model-server_2.0.0_all.deb ...
Unpacking tensorflow-model-server (2.0.0) ...
Setting up tensorflow-model-server (2.0.0) ...

TensorFlow सर्व करना शुरू करें

यह वह जगह है जहाँ हम अपने मॉडल को TensorFlow सर्व करना और लोड करना शुरू करते हैं। इसे लोड करने के बाद हम REST का उपयोग करके इनविटेशन अनुरोध करना शुरू कर सकते हैं। कुछ महत्वपूर्ण पैरामीटर हैं:

  • rest_api_port : वह पोर्ट जो आप REST अनुरोधों के लिए उपयोग करेंगे।
  • model_name : आप इसे अन्य अनुरोधों के URL में उपयोग करेंगे। यह कुछ भी हो सकता है।
  • model_base_path : यह उस निर्देशिका का पथ है जहाँ आपने अपना मॉडल सहेजा है।
os.environ["MODEL_DIR"] = MODEL_DIR
%%bash --bg 
nohup tensorflow_model_server \
  --rest_api_port=8501 \
  --model_name=fashion_model \
  --model_base_path="${MODEL_DIR}" >server.log 2>&1

Starting job # 0 in a separate thread.

tail server.log
[warn] getaddrinfo: address family for nodename not supported
[evhttp_server.cc : 238] NET_LOG: Entering the event loop ...

TensorFlow सर्व करने में अपने मॉडल के लिए एक अनुरोध करें

सबसे पहले, आइए हमारे परीक्षण डेटा से एक यादृच्छिक उदाहरण देखें।

def show(idx, title):
  plt.figure()
  plt.imshow(test_images[idx].reshape(28,28))
  plt.axis('off')
  plt.title('\n\n{}'.format(title), fontdict={'size': 16})

import random
rando = random.randint(0,len(test_images)-1)
show(rando, 'An Example Image: {}'.format(class_names[test_labels[rando]]))

png

ठीक है, यह दिलचस्प लग रहा है। आपको पहचानना कितना कठिन है? अब तीन इंजेक्शन अनुरोधों के एक बैच के लिए JSON ऑब्जेक्ट बनाएँ, और देखें कि हमारा मॉडल कितनी अच्छी तरह चीजों को पहचानता है:

import json
data = json.dumps({"signature_name": "serving_default", "instances": test_images[0:3].tolist()})
print('Data: {} ... {}'.format(data[:50], data[len(data)-52:]))
Data: {"signature_name": "serving_default", "instances": ...  [0.0], [0.0], [0.0], [0.0], [0.0], [0.0], [0.0]]]]}

अन्य अनुरोध करें

सर्वेंट का सबसे नया संस्करण

हम अपने सर्वर के REST समापन बिंदु पर POST के रूप में एक पूर्वानुमान अनुरोध भेजेंगे, और इसे तीन उदाहरणों में पारित करेंगे। हम अपने सर्वर से किसी विशेष संस्करण को निर्दिष्ट न करके हमें अपनी सेवा का नवीनतम संस्करण देने के लिए कहेंगे।

!pip install -q requests

import requests
headers = {"content-type": "application/json"}
json_response = requests.post('http://localhost:8501/v1/models/fashion_model:predict', data=data, headers=headers)
predictions = json.loads(json_response.text)['predictions']

show(0, 'The model thought this was a {} (class {}), and it was actually a {} (class {})'.format(
  class_names[np.argmax(predictions[0])], np.argmax(predictions[0]), class_names[test_labels[0]], test_labels[0]))

png

सर्व करने का एक विशेष संस्करण

अब हमारे सर्व करने के एक विशेष संस्करण को निर्दिष्ट करते हैं। चूंकि हमारे पास केवल एक है, चलो संस्करण 1 चुनें। हम सभी तीन परिणामों को भी देखेंगे।

headers = {"content-type": "application/json"}
json_response = requests.post('http://localhost:8501/v1/models/fashion_model/versions/1:predict', data=data, headers=headers)
predictions = json.loads(json_response.text)['predictions']

for i in range(0,3):
  show(i, 'The model thought this was a {} (class {}), and it was actually a {} (class {})'.format(
    class_names[np.argmax(predictions[i])], np.argmax(predictions[i]), class_names[test_labels[i]], test_labels[i]))

png

png

png

फैशन MNIST डेटासेट आयात करें

यह मार्गदर्शिका फ़ैशन MNIST डेटासेट का उपयोग करती है जिसमें 10 श्रेणियों में 70,000 ग्रेस्केल चित्र हैं। चित्र निम्न संकल्प (28 बाय 28 पिक्सल) पर कपड़ों के व्यक्तिगत लेख दिखाते हैं, जैसा कि यहां देखा गया है:

फैशन MNIST स्प्राइट
चित्रा 1. फैशन-एमएनआईएसटी नमूने (ज़ालैंडो, एमआईटी लाइसेंस द्वारा)।

फैशन MNIST का उद्देश्य क्लासिक MNIST डेटासेट के लिए एक ड्रॉप-इन प्रतिस्थापन के रूप में किया जाता है - जिसे अक्सर कंप्यूटर दृष्टि के लिए मशीन सीखने के कार्यक्रमों के "हैलो, वर्ल्ड" के रूप में उपयोग किया जाता है। आप TensorFlow से सीधे फैशन MNIST तक पहुंच सकते हैं, बस डेटा आयात और लोड कर सकते हैं।