Converti modelli TensorFlow

Mantieni tutto organizzato con le raccolte Salva e classifica i contenuti in base alle tue preferenze.

Questa pagina descrive come convertire un modello TensorFlow in un modello TensorFlow Lite (un formato FlatBuffer ottimizzato identificato dall'estensione del file .tflite ) utilizzando il convertitore TensorFlow Lite.

Flusso di lavoro di conversione

Il diagramma seguente illustra il flusso di lavoro di alto livello per la conversione del modello:

Flusso di lavoro del convertitore TFLite

Figura 1. Flusso di lavoro del convertitore.

Puoi convertire il tuo modello utilizzando una delle seguenti opzioni:

  1. API Python ( consigliata ): consente di integrare la conversione nella pipeline di sviluppo, applicare ottimizzazioni, aggiungere metadati e molte altre attività che semplificano il processo di conversione.
  2. Riga di comando : supporta solo la conversione del modello di base.

API Python

Codice di supporto: per ulteriori informazioni sull'API del convertitore TensorFlow Lite, eseguire print(help(tf.lite.TFLiteConverter)) .

Converti un modello TensorFlow usando tf.lite.TFLiteConverter . Un modello TensorFlow viene archiviato utilizzando il formato SavedModel e viene generato utilizzando le API tf.keras.* di alto livello (un modello Keras) o le API tf.* di basso livello (da cui si generano funzioni concrete). Di conseguenza, hai le seguenti tre opzioni (gli esempi sono nelle prossime sezioni):

L'esempio seguente mostra come convertire un modello SavedModel in un modello TensorFlow Lite.

import tensorflow as tf

# Convert the model
converter = tf.lite.TFLiteConverter.from_saved_model(saved_model_dir) # path to the SavedModel directory
tflite_model = converter.convert()

# Save the model.
with open('model.tflite', 'wb') as f:
  f.write(tflite_model)

Converti un modello Keras

L'esempio seguente mostra come convertire un modello Keras in un modello TensorFlow Lite.

import tensorflow as tf

# Create a model using high-level tf.keras.* APIs
model = tf.keras.models.Sequential([
    tf.keras.layers.Dense(units=1, input_shape=[1]),
    tf.keras.layers.Dense(units=16, activation='relu'),
    tf.keras.layers.Dense(units=1)
])
model.compile(optimizer='sgd', loss='mean_squared_error') # compile the model
model.fit(x=[-1, 0, 1], y=[-3, -1, 1], epochs=5) # train the model
# (to generate a SavedModel) tf.saved_model.save(model, "saved_model_keras_dir")

# Convert the model.
converter = tf.lite.TFLiteConverter.from_keras_model(model)
tflite_model = converter.convert()

# Save the model.
with open('model.tflite', 'wb') as f:
  f.write(tflite_model)

Converti funzioni concrete

L'esempio seguente mostra come convertire le funzioni concrete in un modello TensorFlow Lite.

import tensorflow as tf

# Create a model using low-level tf.* APIs
class Squared(tf.Module):
  @tf.function(input_signature=[tf.TensorSpec(shape=[None], dtype=tf.float32)])
  def __call__(self, x):
    return tf.square(x)
model = Squared()
# (ro run your model) result = Squared(5.0) # This prints "25.0"
# (to generate a SavedModel) tf.saved_model.save(model, "saved_model_tf_dir")
concrete_func = model.__call__.get_concrete_function()

# Convert the model.

converter = tf.lite.TFLiteConverter.from_concrete_functions([concrete_func],
                                                            model)
tflite_model = converter.convert()

# Save the model.
with open('model.tflite', 'wb') as f:
  f.write(tflite_model)

Altre caratteristiche

  • Applicare ottimizzazioni . Un'ottimizzazione comune utilizzata è la quantizzazione post training , che può ridurre ulteriormente la latenza e le dimensioni del modello con una perdita minima di precisione.

  • Aggiungi metadati , che semplificano la creazione di codice wrapper specifico della piattaforma durante la distribuzione di modelli sui dispositivi.

Errori di conversione

Di seguito sono riportati gli errori di conversione comuni e le relative soluzioni:

Strumento riga di comando

Se hai installato TensorFlow 2.x da pip , usa il comando tflite_convert . Per visualizzare tutti i flag disponibili, utilizzare il seguente comando:

$ tflite_convert --help

`--output_file`. Type: string. Full path of the output file.
`--saved_model_dir`. Type: string. Full path to the SavedModel directory.
`--keras_model_file`. Type: string. Full path to the Keras H5 model file.
`--enable_v1_converter`. Type: bool. (default False) Enables the converter and flags used in TF 1.x instead of TF 2.x.

You are required to provide the `--output_file` flag and either the `--saved_model_dir` or `--keras_model_file` flag.

Se hai scaricato il sorgente TensorFlow 2.x e desideri eseguire il convertitore da tale sorgente senza creare e installare il pacchetto, puoi sostituire ' tflite_convert ' con ' bazel run tensorflow/lite/python:tflite_convert -- ' nel comando.

Conversione di un modello salvato

tflite_convert \
  --saved_model_dir=/tmp/mobilenet_saved_model \
  --output_file=/tmp/mobilenet.tflite

Conversione di un modello Keras H5

tflite_convert \
  --keras_model_file=/tmp/mobilenet_keras_model.h5 \
  --output_file=/tmp/mobilenet.tflite

Prossimi passi

Utilizzare l' interprete TensorFlow Lite per eseguire l'inferenza su un dispositivo client (ad es. mobile, incorporato).