इस पेज का अनुवाद Cloud Translation API से किया गया है.
Switch to English

करस उदाहरण में वजन क्लस्टरिंग

TensorFlow.org पर देखें Google Colab में चलाएं GitHub पर स्रोत देखें नोटबुक डाउनलोड करें

अवलोकन

वजन घटाने के लिए एंड-टू-एंड उदाहरण में आपका स्वागत है, TensorFlow मॉडल ऑप्टिमाइज़ेशन टूलकिट का हिस्सा।

अन्य पेज

वेट क्लस्टरिंग क्या है और यह निर्धारित करने के लिए कि आपको इसका उपयोग करना चाहिए (क्या समर्थित है सहित) का परिचय देने के लिए, अवलोकन पृष्ठ देखें

अपने उपयोग के मामले के लिए आवश्यक एपीआई को जल्दी से खोजने के लिए (16 क्लस्टर के साथ एक मॉडल को पूरी तरह से बंद करने से परे), व्यापक गाइड देखें

अंतर्वस्तु

ट्यूटोरियल में, आप करेंगे:

  1. खरोंच से MNIST डाटासेट के लिए एक tf.keras मॉडल को tf.keras
  2. वजन क्लस्टरिंग एपीआई को लागू करके मॉडल को फाइन-ट्यून करें और सटीकता देखें।
  3. क्लस्टरिंग से एक 6x छोटे TF और TFLite मॉडल बनाएं।
  4. वजन क्लस्टरिंग और प्रशिक्षण के बाद के परिमाणीकरण के संयोजन से 8x छोटा TFLite मॉडल बनाएं।
  5. TF से TFLite तक सटीकता की दृढ़ता देखें।

सेट अप

आप अपने स्थानीय virtualenv या कोलाब में इस Jupyter नोटबुक को चला सकते हैं। निर्भरता स्थापित करने के विवरण के लिए, कृपया स्थापना मार्गदर्शिका देखें।

 pip install -q tensorflow-model-optimization
 import tensorflow as tf
from tensorflow import keras

import numpy as np
import tempfile
import zipfile
import os
 

बिना क्लस्टर किए MNIST के लिए एक tf.keras मॉडल को प्रशिक्षित करें

 # Load MNIST dataset
mnist = keras.datasets.mnist
(train_images, train_labels), (test_images, test_labels) = mnist.load_data()

# Normalize the input image so that each pixel value is between 0 to 1.
train_images = train_images / 255.0
test_images  = test_images / 255.0

# Define the model architecture.
model = keras.Sequential([
    keras.layers.InputLayer(input_shape=(28, 28)),
    keras.layers.Reshape(target_shape=(28, 28, 1)),
    keras.layers.Conv2D(filters=12, kernel_size=(3, 3), activation=tf.nn.relu),
    keras.layers.MaxPooling2D(pool_size=(2, 2)),
    keras.layers.Flatten(),
    keras.layers.Dense(10)
])

# Train the digit classification model
model.compile(optimizer='adam',
              loss=tf.keras.losses.SparseCategoricalCrossentropy(from_logits=True),
              metrics=['accuracy'])

model.fit(
    train_images,
    train_labels,
    validation_split=0.1,
    epochs=10
)
 
Downloading data from https://storage.googleapis.com/tensorflow/tf-keras-datasets/mnist.npz
11493376/11490434 [==============================] - 0s 0us/step
Epoch 1/10
1688/1688 [==============================] - 7s 4ms/step - loss: 0.3352 - accuracy: 0.9039 - val_loss: 0.1543 - val_accuracy: 0.9575
Epoch 2/10
1688/1688 [==============================] - 7s 4ms/step - loss: 0.1535 - accuracy: 0.9559 - val_loss: 0.0948 - val_accuracy: 0.9745
Epoch 3/10
1688/1688 [==============================] - 7s 4ms/step - loss: 0.1003 - accuracy: 0.9715 - val_loss: 0.0750 - val_accuracy: 0.9788
Epoch 4/10
1688/1688 [==============================] - 7s 4ms/step - loss: 0.0791 - accuracy: 0.9768 - val_loss: 0.0652 - val_accuracy: 0.9828
Epoch 5/10
1688/1688 [==============================] - 7s 4ms/step - loss: 0.0669 - accuracy: 0.9803 - val_loss: 0.0663 - val_accuracy: 0.9807
Epoch 6/10
1688/1688 [==============================] - 7s 4ms/step - loss: 0.0589 - accuracy: 0.9820 - val_loss: 0.0581 - val_accuracy: 0.9833
Epoch 7/10
1688/1688 [==============================] - 7s 4ms/step - loss: 0.0528 - accuracy: 0.9840 - val_loss: 0.0584 - val_accuracy: 0.9832
Epoch 8/10
1688/1688 [==============================] - 8s 5ms/step - loss: 0.0479 - accuracy: 0.9854 - val_loss: 0.0560 - val_accuracy: 0.9838
Epoch 9/10
1688/1688 [==============================] - 7s 4ms/step - loss: 0.0434 - accuracy: 0.9867 - val_loss: 0.0550 - val_accuracy: 0.9853
Epoch 10/10
1688/1688 [==============================] - 7s 4ms/step - loss: 0.0393 - accuracy: 0.9880 - val_loss: 0.0571 - val_accuracy: 0.9845

<tensorflow.python.keras.callbacks.History at 0x7fd1a1e18668>

आधार रेखा मॉडल का मूल्यांकन करें और इसे बाद के उपयोग के लिए सहेजें

 _, baseline_model_accuracy = model.evaluate(
    test_images, test_labels, verbose=0)

print('Baseline test accuracy:', baseline_model_accuracy)

_, keras_file = tempfile.mkstemp('.h5')
print('Saving model to: ', keras_file)
tf.keras.models.save_model(model, keras_file, include_optimizer=False)
 
Baseline test accuracy: 0.9805999994277954
Saving model to:  /tmp/tmpphs68ctq.h5

क्लस्टरिंग के साथ पूर्व प्रशिक्षित मॉडल को फाइन-ट्यून करें

सभ्य सटीकता के साथ ज़िप लगाने के बाद मॉडल के आकार को कम करने में इसकी प्रभावशीलता को प्रदर्शित करने के लिए एक संपूर्ण प्रशिक्षित मॉडल के लिए cluster_weights() एपीआई लागू करें। आपके उपयोग के मामले के लिए सटीकता और संपीड़न दर को संतुलित करने के लिए सबसे अच्छा, कृपया व्यापक गाइड में प्रति परत उदाहरण देखें।

मॉडल को परिभाषित करें और क्लस्टरिंग एपीआई को लागू करें

इससे पहले कि आप मॉडल को क्लस्टरिंग एपीआई में पास करें, सुनिश्चित करें कि यह प्रशिक्षित है और कुछ स्वीकार्य सटीकता दिखाता है।

 import tensorflow_model_optimization as tfmot

cluster_weights = tfmot.clustering.keras.cluster_weights
CentroidInitialization = tfmot.clustering.keras.CentroidInitialization

clustering_params = {
  'number_of_clusters': 16,
  'cluster_centroids_init': CentroidInitialization.LINEAR
}

# Cluster a whole model
clustered_model = cluster_weights(model, **clustering_params)

# Use smaller learning rate for fine-tuning clustered model
opt = tf.keras.optimizers.Adam(learning_rate=1e-5)

clustered_model.compile(
  loss=tf.keras.losses.SparseCategoricalCrossentropy(from_logits=True),
  optimizer=opt,
  metrics=['accuracy'])

clustered_model.summary()
 
Model: "sequential"
_________________________________________________________________
Layer (type)                 Output Shape              Param #   
=================================================================
cluster_reshape (ClusterWeig (None, 28, 28, 1)         0         
_________________________________________________________________
cluster_conv2d (ClusterWeigh (None, 26, 26, 12)        136       
_________________________________________________________________
cluster_max_pooling2d (Clust (None, 13, 13, 12)        0         
_________________________________________________________________
cluster_flatten (ClusterWeig (None, 2028)              0         
_________________________________________________________________
cluster_dense (ClusterWeight (None, 10)                20306     
=================================================================
Total params: 20,442
Trainable params: 54
Non-trainable params: 20,388
_________________________________________________________________

मॉडल को फाइन-ट्यून करें और बेसलाइन के खिलाफ सटीकता का मूल्यांकन करें

1 युग के लिए क्लस्टरिंग के साथ मॉडल को फाइन-ट्यून करें।

 # Fine-tune model
clustered_model.fit(
  train_images,
  train_labels,
  batch_size=500,
  epochs=1,
  validation_split=0.1)
 
108/108 [==============================] - 2s 16ms/step - loss: 0.0535 - accuracy: 0.9821 - val_loss: 0.0692 - val_accuracy: 0.9803

<tensorflow.python.keras.callbacks.History at 0x7fd18437ee10>

इस उदाहरण के लिए, बेसलाइन की तुलना में क्लस्टरिंग के बाद परीक्षण सटीकता में न्यूनतम नुकसान होता है।

 _, clustered_model_accuracy = clustered_model.evaluate(
  test_images, test_labels, verbose=0)

print('Baseline test accuracy:', baseline_model_accuracy)
print('Clustered test accuracy:', clustered_model_accuracy)
 
Baseline test accuracy: 0.9805999994277954
Clustered test accuracy: 0.9753000140190125

क्लस्टरिंग से 6x छोटे मॉडल बनाएं

strip_clustering और मानक संपीड़न एल्गोरिदम (जैसे gzip के माध्यम से) को लागू करने के लिए क्लस्टरिंग के संपीड़न लाभों को देखना आवश्यक है।

सबसे पहले, TensorFlow के लिए एक कंप्रेसेबल मॉडल बनाएं। यहाँ, strip_clustering सभी वेरिएबल्स (जैसे tf.Variable को क्लस्टर सेंट्रोइड्स और सूचकांकों को संग्रहीत करने के लिए) को हटाता है, जो केवल प्रशिक्षण के दौरान क्लस्टरिंग की आवश्यकता होती है, जो अन्यथा tf.Variable के दौरान मॉडल आकार में जोड़ देगा।

 final_model = tfmot.clustering.keras.strip_clustering(clustered_model)

_, clustered_keras_file = tempfile.mkstemp('.h5')
print('Saving clustered model to: ', clustered_keras_file)
tf.keras.models.save_model(final_model, clustered_keras_file, 
                           include_optimizer=False)
 
Saving clustered model to:  /tmp/tmpfnmtfvf8.h5

फिर, TFLite के लिए कंप्रेसिबल मॉडल बनाएं। आप संकुल मॉडल को ऐसे प्रारूप में परिवर्तित कर सकते हैं जो आपके लक्षित बैकेंड पर चलने योग्य हो। TensorFlow Lite एक उदाहरण है जिसका उपयोग आप मोबाइल उपकरणों पर लागू करने के लिए कर सकते हैं।

 clustered_tflite_file = '/tmp/clustered_mnist.tflite'
converter = tf.lite.TFLiteConverter.from_keras_model(final_model)
tflite_clustered_model = converter.convert()
with open(clustered_tflite_file, 'wb') as f:
  f.write(tflite_clustered_model)
print('Saved clustered TFLite model to:', clustered_tflite_file)
 
WARNING:tensorflow:From /tmpfs/src/tf_docs_env/lib/python3.6/site-packages/tensorflow/python/training/tracking/tracking.py:111: Model.state_updates (from tensorflow.python.keras.engine.training) is deprecated and will be removed in a future version.
Instructions for updating:
This property should not be used in TensorFlow 2.0, as updates are applied automatically.
WARNING:tensorflow:From /tmpfs/src/tf_docs_env/lib/python3.6/site-packages/tensorflow/python/training/tracking/tracking.py:111: Layer.updates (from tensorflow.python.keras.engine.base_layer) is deprecated and will be removed in a future version.
Instructions for updating:
This property should not be used in TensorFlow 2.0, as updates are applied automatically.
INFO:tensorflow:Assets written to: /tmp/tmpe966h_56/assets
Saved clustered TFLite model to: /tmp/clustered_mnist.tflite

वास्तव में gzip के माध्यम से मॉडल को संपीड़ित करने और ज़िपित आकार को मापने के लिए एक सहायक फ़ंक्शन को परिभाषित करें।

 def get_gzipped_model_size(file):
  # It returns the size of the gzipped model in bytes.
  import os
  import zipfile

  _, zipped_file = tempfile.mkstemp('.zip')
  with zipfile.ZipFile(zipped_file, 'w', compression=zipfile.ZIP_DEFLATED) as f:
    f.write(file)

  return os.path.getsize(zipped_file)
 

तुलना करें और देखें कि मॉडल क्लस्टरिंग से 6x छोटे हैं

 print("Size of gzipped baseline Keras model: %.2f bytes" % (get_gzipped_model_size(keras_file)))
print("Size of gzipped clustered Keras model: %.2f bytes" % (get_gzipped_model_size(clustered_keras_file)))
print("Size of gzipped clustered TFlite model: %.2f bytes" % (get_gzipped_model_size(clustered_tflite_file)))
 
Size of gzipped baseline Keras model: 78076.00 bytes
Size of gzipped clustered Keras model: 13362.00 bytes
Size of gzipped clustered TFlite model: 12982.00 bytes

वजन क्लस्टरिंग और प्रशिक्षण के बाद की मात्रा का संयोजन से एक 8x छोटा TFLite मॉडल बनाएं

आप अतिरिक्त लाभ के लिए क्लस्टर किए गए मॉडल पर पोस्ट-ट्रेनिंग मात्रा का ठहराव लागू कर सकते हैं।

 converter = tf.lite.TFLiteConverter.from_keras_model(final_model)
converter.optimizations = [tf.lite.Optimize.DEFAULT]
tflite_quant_model = converter.convert()

_, quantized_and_clustered_tflite_file = tempfile.mkstemp('.tflite')

with open(quantized_and_clustered_tflite_file, 'wb') as f:
  f.write(tflite_quant_model)

print('Saved quantized and clustered TFLite model to:', quantized_and_clustered_tflite_file)
print("Size of gzipped baseline Keras model: %.2f bytes" % (get_gzipped_model_size(keras_file)))
print("Size of gzipped clustered and quantized TFlite model: %.2f bytes" % (get_gzipped_model_size(quantized_and_clustered_tflite_file)))
 
INFO:tensorflow:Assets written to: /tmp/tmpg0gw8r5x/assets

INFO:tensorflow:Assets written to: /tmp/tmpg0gw8r5x/assets

Saved quantized and clustered TFLite model to: /tmp/tmp43crqft1.tflite
Size of gzipped baseline Keras model: 78076.00 bytes
Size of gzipped clustered and quantized TFlite model: 9830.00 bytes

TF से TFLite तक सटीकता की दृढ़ता देखें

परीक्षण डेटासेट पर TFLite मॉडल का मूल्यांकन करने के लिए एक सहायक फ़ंक्शन को परिभाषित करें।

 def eval_model(interpreter):
  input_index = interpreter.get_input_details()[0]["index"]
  output_index = interpreter.get_output_details()[0]["index"]

  # Run predictions on every image in the "test" dataset.
  prediction_digits = []
  for i, test_image in enumerate(test_images):
    if i % 1000 == 0:
      print('Evaluated on {n} results so far.'.format(n=i))
    # Pre-processing: add batch dimension and convert to float32 to match with
    # the model's input data format.
    test_image = np.expand_dims(test_image, axis=0).astype(np.float32)
    interpreter.set_tensor(input_index, test_image)

    # Run inference.
    interpreter.invoke()

    # Post-processing: remove batch dimension and find the digit with highest
    # probability.
    output = interpreter.tensor(output_index)
    digit = np.argmax(output()[0])
    prediction_digits.append(digit)

  print('\n')
  # Compare prediction results with ground truth labels to calculate accuracy.
  prediction_digits = np.array(prediction_digits)
  accuracy = (prediction_digits == test_labels).mean()
  return accuracy
 

आप उस मॉडल का मूल्यांकन करते हैं, जिसे क्लस्टर्ड और क्वांटाइज़ किया गया है, और फिर देखें TensorFlow की सटीकता TFLite बैकेंड के लिए बनी हुई है।

 interpreter = tf.lite.Interpreter(model_content=tflite_quant_model)
interpreter.allocate_tensors()

test_accuracy = eval_model(interpreter)

print('Clustered and quantized TFLite test_accuracy:', test_accuracy)
print('Clustered TF test accuracy:', clustered_model_accuracy)
 
Evaluated on 0 results so far.
Evaluated on 1000 results so far.
Evaluated on 2000 results so far.
Evaluated on 3000 results so far.
Evaluated on 4000 results so far.
Evaluated on 5000 results so far.
Evaluated on 6000 results so far.
Evaluated on 7000 results so far.
Evaluated on 8000 results so far.
Evaluated on 9000 results so far.


Clustered and quantized TFLite test_accuracy: 0.975
Clustered TF test accuracy: 0.9753000140190125

निष्कर्ष

इस ट्यूटोरियल में, आपने देखा कि टेन्सरफ्लो मॉडल ऑप्टिमाइज़ेशन टूलकिट एपीआई के साथ क्लस्टर किए गए मॉडल कैसे बनाएं। अधिक विशेष रूप से, आप न्यूनतम सटीकता अंतर के साथ MNIST के लिए 8x छोटे मॉडल बनाने के लिए एंड-टू-एंड उदाहरण के माध्यम से गए हैं। हम आपको इस नई क्षमता के लिए प्रोत्साहित करते हैं, जो विशेष रूप से संसाधन-विवश वातावरण में तैनाती के लिए महत्वपूर्ण हो सकता है।