Esta página foi traduzida pela API Cloud Translation.
Switch to English

Pós-treinamento quantização faixa dinâmica

Ver TensorFlow.org Executar no Google Colab Ver fonte no GitHub download notebook

Visão geral

TensorFlow Lite agora suporta a conversão de pesos para precisão de 8 bits como parte da conversão do modelo de graphdefs tensorflow para o formato buffer plana de TensorFlow Lite. quantização gama dinâmica consegue uma redução 4x o tamanho no modelo. Além disso, TFLite suporta na quantização mosca e dequantization de ativações para permitir:

  1. Usando kernels quantizados para implementação mais rápida quando disponível.
  2. A mistura de grãos de ponto flutuante com grãos quantificados para diferentes partes do gráfico.

As ativações são sempre armazenados em ponto flutuante. Para ops que o apoio quantificados kernels, as ativações são quantificados para 8 bits de precisão dinamicamente antes do processamento e são de-quantizado a precisão float após o processamento. Dependendo do modelo de ser convertido, isto pode dar um aumento de velocidade sobre puro computação ponto flutuante.

Em contraste com a formação ciente quantização , os pesos são formação pós quantizado e as ativações são quantificados dinamicamente durante a inferência neste método. Portanto, os pesos modelo não são treinados novamente para compensar erros de quantização induzida. É importante verificar a precisão do modelo quantizada para garantir que a degradação é aceitável.

Este tutorial trens um modelo MNIST a partir do zero, verifica a sua precisão em TensorFlow, e em seguida, converte o modelo em um flatbuffer Tensorflow Lite com quantização faixa dinâmica. Finalmente, ele verifica a precisão do modelo convertido e compará-lo com o modelo float original.

Construir um modelo MNIST

Configuração

 import logging
logging.getLogger("tensorflow").setLevel(logging.DEBUG)

import tensorflow as tf
from tensorflow import keras
import numpy as np
import pathlib
 

Treinar um modelo TensorFlow

 # Load MNIST dataset
mnist = keras.datasets.mnist
(train_images, train_labels), (test_images, test_labels) = mnist.load_data()

# Normalize the input image so that each pixel value is between 0 to 1.
train_images = train_images / 255.0
test_images = test_images / 255.0

# Define the model architecture
model = keras.Sequential([
  keras.layers.InputLayer(input_shape=(28, 28)),
  keras.layers.Reshape(target_shape=(28, 28, 1)),
  keras.layers.Conv2D(filters=12, kernel_size=(3, 3), activation=tf.nn.relu),
  keras.layers.MaxPooling2D(pool_size=(2, 2)),
  keras.layers.Flatten(),
  keras.layers.Dense(10)
])

# Train the digit classification model
model.compile(optimizer='adam',
              loss=keras.losses.SparseCategoricalCrossentropy(from_logits=True),
              metrics=['accuracy'])
model.fit(
  train_images,
  train_labels,
  epochs=1,
  validation_data=(test_images, test_labels)
)
 
1875/1875 [==============================] - 10s 5ms/step - loss: 0.2787 - accuracy: 0.9203 - val_loss: 0.1323 - val_accuracy: 0.9624

<tensorflow.python.keras.callbacks.History at 0x7f6443480e80>

Para o exemplo, uma vez que você treinou o modelo para apenas uma única época, por isso apenas trens para ~ precisão de 96%.

Converter para um modelo TensorFlow Lite

Usando o Python TFLiteConverter , agora você pode converter o modelo treinado em um modelo TensorFlow Lite.

Agora carregar o modelo usando o TFLiteConverter :

 converter = tf.lite.TFLiteConverter.from_keras_model(model)
tflite_model = converter.convert()
 

Escrevê-lo em um arquivo tflite:

 tflite_models_dir = pathlib.Path("/tmp/mnist_tflite_models/")
tflite_models_dir.mkdir(exist_ok=True, parents=True)
 
 tflite_model_file = tflite_models_dir/"mnist_model.tflite"
tflite_model_file.write_bytes(tflite_model)
 
84452

Para quantificar o modelo de exportação, defina a optimizations bandeira para otimizar o tamanho:

 converter.optimizations = [tf.lite.Optimize.DEFAULT]
tflite_quant_model = converter.convert()
tflite_model_quant_file = tflite_models_dir/"mnist_model_quant.tflite"
tflite_model_quant_file.write_bytes(tflite_quant_model)
 
23840

Note-se como o arquivo resultante, é de aproximadamente 1/4 do tamanho.

ls -lh {tflite_models_dir}
total 214M
-rw-rw-r-- 1 colaboratory-playground 50844828  44K Jun 23 06:04 mnist_model_quant_f16.tflite
-rw-rw-r-- 1 colaboratory-playground 50844828  24K Jun 23 06:12 mnist_model_quant.tflite
-rw-rw-r-- 1 colaboratory-playground 50844828  83K Jun 23 06:12 mnist_model.tflite
-rw-rw-r-- 1 colaboratory-playground 50844828  44M Jun 23 06:10 resnet_v2_101_quantized.tflite
-rw-rw-r-- 1 colaboratory-playground 50844828 171M Jun 23 06:09 resnet_v2_101.tflite

Executar os modelos TFLite

Execute o modelo TensorFlow Lite usando o Python TensorFlow Lite intérprete.

Carregar o modelo em um intérprete

 interpreter = tf.lite.Interpreter(model_path=str(tflite_model_file))
interpreter.allocate_tensors()
 
 interpreter_quant = tf.lite.Interpreter(model_path=str(tflite_model_quant_file))
interpreter_quant.allocate_tensors()
 

Testar o modelo em uma imagem

 test_image = np.expand_dims(test_images[0], axis=0).astype(np.float32)

input_index = interpreter.get_input_details()[0]["index"]
output_index = interpreter.get_output_details()[0]["index"]

interpreter.set_tensor(input_index, test_image)
interpreter.invoke()
predictions = interpreter.get_tensor(output_index)
 
 import matplotlib.pylab as plt

plt.imshow(test_images[0])
template = "True:{true}, predicted:{predict}"
_ = plt.title(template.format(true= str(test_labels[0]),
                              predict=str(np.argmax(predictions[0]))))
plt.grid(False)
 

png

Avaliar os modelos

 # A helper function to evaluate the TF Lite model using "test" dataset.
def evaluate_model(interpreter):
  input_index = interpreter.get_input_details()[0]["index"]
  output_index = interpreter.get_output_details()[0]["index"]

  # Run predictions on every image in the "test" dataset.
  prediction_digits = []
  for test_image in test_images:
    # Pre-processing: add batch dimension and convert to float32 to match with
    # the model's input data format.
    test_image = np.expand_dims(test_image, axis=0).astype(np.float32)
    interpreter.set_tensor(input_index, test_image)

    # Run inference.
    interpreter.invoke()

    # Post-processing: remove batch dimension and find the digit with highest
    # probability.
    output = interpreter.tensor(output_index)
    digit = np.argmax(output()[0])
    prediction_digits.append(digit)

  # Compare prediction results with ground truth labels to calculate accuracy.
  accurate_count = 0
  for index in range(len(prediction_digits)):
    if prediction_digits[index] == test_labels[index]:
      accurate_count += 1
  accuracy = accurate_count * 1.0 / len(prediction_digits)

  return accuracy
 
 print(evaluate_model(interpreter))
 
0.9624

Repita a avaliação no modelo quantizado faixa dinâmica para obter:

 print(evaluate_model(interpreter_quant))
 
0.9626

Neste exemplo, o modelo de comprimido não tem nenhuma diferença na precisão.

Otimizando um modelo existente

Resnets com camadas de pré-activação (ResNet-V2) são amplamente utilizados para aplicações de visão. Pré-treinado gráfico congelado por ResNet-v2-101 é acessível em Tensorflow Hub .

Você pode converter o gráfico congelado a uma TensorFLow Lite flatbuffer com quantização por:

 import tensorflow_hub as hub

resnet_v2_101 = tf.keras.Sequential([
  keras.layers.InputLayer(input_shape=(224, 224, 3)),
  hub.KerasLayer("https://tfhub.dev/google/imagenet/resnet_v2_101/classification/4")
])

converter = tf.lite.TFLiteConverter.from_keras_model(resnet_v2_101)
 
 # Convert to TF Lite without quantization
resnet_tflite_file = tflite_models_dir/"resnet_v2_101.tflite"
resnet_tflite_file.write_bytes(converter.convert())
 
178509092
 # Convert to TF Lite with quantization
converter.optimizations = [tf.lite.Optimize.DEFAULT]
resnet_quantized_tflite_file = tflite_models_dir/"resnet_v2_101_quantized.tflite"
resnet_quantized_tflite_file.write_bytes(converter.convert())
 
45182656
ls -lh {tflite_models_dir}/*.tflite
-rw-rw-r-- 1 colaboratory-playground 50844828  44K Jun 23 06:04 /tmp/mnist_tflite_models/mnist_model_quant_f16.tflite
-rw-rw-r-- 1 colaboratory-playground 50844828  24K Jun 23 06:12 /tmp/mnist_tflite_models/mnist_model_quant.tflite
-rw-rw-r-- 1 colaboratory-playground 50844828  83K Jun 23 06:12 /tmp/mnist_tflite_models/mnist_model.tflite
-rw-rw-r-- 1 colaboratory-playground 50844828  44M Jun 23 06:13 /tmp/mnist_tflite_models/resnet_v2_101_quantized.tflite
-rw-rw-r-- 1 colaboratory-playground 50844828 171M Jun 23 06:12 /tmp/mnist_tflite_models/resnet_v2_101.tflite

O tamanho do modelo reduz de 171 MB a 43 MB. A precisão deste modelo em IMAGEnet pode ser avaliada utilizando os scripts fornecidos para medição de precisão TFLite .

O modelo optimizado precisão topo-1 é de 76,8, o mesmo que o modelo de ponto flutuante.