Aiuto proteggere la Grande Barriera Corallina con tensorflow sul Kaggle Join Sfida

Convertitore TensorFlow Lite

Il convertitore tensorflow Lite prende un modello tensorflow e genera un modello tensorflow Lite (una ottimizzata FlatBuffer formato identificato dal .tflite estensione del file). Sono disponibili le seguenti due opzioni per l'utilizzo del convertitore:

  1. Python API (consigliato): Questo rende più facile per convertire modelli come parte della pipeline di sviluppo del modello, applicare ottimizzazioni, aggiungere metadati e ha molte più funzioni.
  2. Riga di comando : Questo supporta solo la conversione di base del modello.

Flusso di lavoro del convertitore TFLite

API Python

Helper Codice: Per identificare la versione installata tensorflow, eseguire print(tf.__version__) e per conoscere meglio il convertitore di API tensorflow Lite, run print(help(tf.lite.TFLiteConverter)) .

Se hai installato tensorflow 2.x , sono disponibili le seguenti due opzioni: (se avete installato tensorflow 1.x , fare riferimento a Github )

L'esempio seguente mostra come convertire una SavedModel in un modello tensorflow Lite.

import tensorflow as tf

# Convert the model
converter = tf.lite.TFLiteConverter.from_saved_model(saved_model_dir) # path to the SavedModel directory
tflite_model = converter.convert()

# Save the model.
with open('model.tflite', 'wb') as f:
  f.write(tflite_model)

Converti un modello Keras

L'esempio seguente mostra come convertire un Keras modello in un modello tensorflow Lite.

import tensorflow as tf

# Create a model using high-level tf.keras.* APIs
model = tf.keras.models.Sequential([
    tf.keras.layers.Dense(units=1, input_shape=[1]),
    tf.keras.layers.Dense(units=16, activation='relu'),
    tf.keras.layers.Dense(units=1)
])
model.compile(optimizer='sgd', loss='mean_squared_error') # compile the model
model.fit(x=[-1, 0, 1], y=[-3, -1, 1], epochs=5) # train the model
# (to generate a SavedModel) tf.saved_model.save(model, "saved_model_keras_dir")

# Convert the model.
converter = tf.lite.TFLiteConverter.from_keras_model(model)
tflite_model = converter.convert()

# Save the model.
with open('model.tflite', 'wb') as f:
  f.write(tflite_model)

Converti funzioni concrete

L'esempio seguente mostra come convertire le funzioni di cemento in un modello tensorflow Lite.

import tensorflow as tf

# Create a model using low-level tf.* APIs
class Squared(tf.Module):
  @tf.function(input_signature=[tf.TensorSpec(shape=[None], dtype=tf.float32)])
  def __call__(self, x):
    return tf.square(x)
model = Squared()
# (ro run your model) result = Squared(5.0) # This prints "25.0"
# (to generate a SavedModel) tf.saved_model.save(model, "saved_model_tf_dir")
concrete_func = model.__call__.get_concrete_function()

# Convert the model.
# Notes that for the versions earlier than TensorFlow 2.7, the
# from_concrete_functions API is able to work when there is only the first
# argument given:
# > converter = tf.lite.TFLiteConverter.from_concrete_functions([concrete_func])
converter = tf.lite.TFLiteConverter.from_concrete_functions([concrete_func],
                                                            model)
tflite_model = converter.convert()

# Save the model.
with open('model.tflite', 'wb') as f:
  f.write(tflite_model)

Altre caratteristiche

  • Applicare ottimizzazioni . Un'ottimizzazione comune utilizzato è quantizzazione formazione post , che può ridurre ulteriormente la latenza e dimensioni del modello con una perdita minima di precisione.

  • Aggiungere metadati , che rende più facile la creazione di piattaforma specifica codice wrapper durante la distribuzione di modelli sui dispositivi.

Errori di conversione

Di seguito sono riportati errori di conversione comuni e relative soluzioni:

  • Errore: Some ops are not supported by the native TFLite runtime, you can enable TF kernels fallback using TF Select. See instructions: <a href="https://www.tensorflow.org/lite/guide/ops_select">https://www.tensorflow.org/lite/guide/ops_select</a> TF Select ops: ..., .., ...

    Soluzione: l'errore si verifica poiché il modello ha operazioni TF che non hanno un'implementazione TFLite corrispondente. È possibile risolvere questo utilizzando l'op TF nel modello TFLite (consigliato). Se si desidera generare un modello con solo ops TFLite, è possibile aggiungere una richiesta dei dispersi op TFLite in Github numero # 21526 (lasciare un commento se la richiesta non sia già stato detto) oppure creare il TFLite op te stesso.

  • Errore: .. is neither a custom op nor a flex op

    Soluzione: se questa operazione TF è:

Strumento da riga di comando

Si consiglia vivamente di utilizzare l' API di Python di cui sopra, invece, se possibile.

Se hai installato tensorflow 2.x da pip , utilizzare il tflite_convert comando come segue: (se avete installato tensorflow 2.x dai sorgenti , allora si può sostituire ' tflite_convert ' con ' bazel run //tensorflow/lite/python:tflite_convert -- 'nelle sezioni seguenti, e se hai installato tensorflow 1.x quindi fare riferimento a Github ( di riferimento , esempi ))

tflite_convert : per visualizzare tutte le bandiere disponibili, utilizzare il seguente comando:

$ tflite_convert --help

`--output_file`. Type: string. Full path of the output file.
`--saved_model_dir`. Type: string. Full path to the SavedModel directory.
`--keras_model_file`. Type: string. Full path to the Keras H5 model file.
`--enable_v1_converter`. Type: bool. (default False) Enables the converter and flags used in TF 1.x instead of TF 2.x.

You are required to provide the `--output_file` flag and either the `--saved_model_dir` or `--keras_model_file` flag.

Conversione di un modello salvato

tflite_convert \
  --saved_model_dir=/tmp/mobilenet_saved_model \
  --output_file=/tmp/mobilenet.tflite

Conversione di un modello Keras H5

tflite_convert \
  --keras_model_file=/tmp/mobilenet_keras_model.h5 \
  --output_file=/tmp/mobilenet.tflite

Prossimi passi

Utilizzare l' interprete tensorflow Lite per l'inferenza corsa su un dispositivo client (ad esempio mobili, embedded).