L'uso di TensorFlow Lite con Python è ottimo per i dispositivi embedded basati su Linux, come i dispositivi Raspberry Pi e Coral con Edge TPU , tra molti altri.
Questa pagina mostra come iniziare a eseguire i modelli TensorFlow Lite con Python in pochi minuti. Tutto ciò che serve è un modello TensorFlow convertito in TensorFlow Lite . (Se non hai ancora convertito un modello, puoi sperimentare utilizzando il modello fornito con l'esempio collegato di seguito.)
Informazioni sul pacchetto di runtime TensorFlow Lite
Per iniziare rapidamente a eseguire i modelli TensorFlow Lite con Python, puoi installare solo l'interprete TensorFlow Lite, invece di tutti i pacchetti TensorFlow. Chiamiamo questo pacchetto Python semplificato tflite_runtime
.
Il pacchetto tflite_runtime
è una frazione delle dimensioni del pacchetto tensorflow
completo e include il codice minimo necessario per eseguire le inferenze con TensorFlow Lite, principalmente la classe Interpreter
Python. Questo piccolo pacchetto è l'ideale quando tutto ciò che vuoi fare è eseguire modelli .tflite
ed evitare di sprecare spazio su disco con la grande libreria TensorFlow.
Installa TensorFlow Lite per Python
Puoi installare su Linux con pip:
python3 -m pip install tflite-runtime
Piattaforme supportate
Le ruote Python tflite-runtime
sono predefinite e fornite per queste piattaforme:
- Linux armv7l (ad es. Raspberry Pi 2, 3, 4 e Zero 2 con sistema operativo Raspberry Pi a 32 bit)
- Linux aarch64 (ad es. Raspberry Pi 3, 4 con Debian ARM64)
- Linux x86_64
Se desideri eseguire i modelli TensorFlow Lite su altre piattaforme, dovresti utilizzare il pacchetto TensorFlow completo o creare il pacchetto tflite-runtime da source .
Se stai usando TensorFlow con Coral Edge TPU, dovresti invece seguire la documentazione di configurazione Coral appropriata.
Esegui un'inferenza usando tflite_runtime
Invece di importare Interpreter
dal modulo tensorflow
, ora devi importarlo da tflite_runtime
.
Ad esempio, dopo aver installato il pacchetto sopra, copia ed esegui il file label_image.py
. (probabilmente) fallirà perché non hai installato la libreria tensorflow
. Per risolverlo, modifica questa riga del file:
import tensorflow as tf
Quindi si legge invece:
import tflite_runtime.interpreter as tflite
E poi cambia questa riga:
interpreter = tf.lite.Interpreter(model_path=args.model_file)
Quindi si legge:
interpreter = tflite.Interpreter(model_path=args.model_file)
Ora esegui di nuovo label_image.py
. Questo è tutto! Ora stai eseguendo i modelli TensorFlow Lite.
Per saperne di più
Per maggiori dettagli sull'API
Interpreter
, leggi Carica ed esegui un modello in Python .Se hai un Raspberry Pi, dai un'occhiata a una serie di video su come eseguire il rilevamento di oggetti su Raspberry Pi usando TensorFlow Lite.
Se stai usando un acceleratore Coral ML, dai un'occhiata agli esempi di Coral su GitHub .
Per convertire altri modelli TensorFlow in TensorFlow Lite, leggi il convertitore TensorFlow Lite .
Se vuoi costruire
tflite_runtime
wheel, leggi Build TensorFlow Lite Python Wheel Package
L'uso di TensorFlow Lite con Python è ottimo per i dispositivi embedded basati su Linux, come i dispositivi Raspberry Pi e Coral con Edge TPU , tra molti altri.
Questa pagina mostra come iniziare a eseguire i modelli TensorFlow Lite con Python in pochi minuti. Tutto ciò che serve è un modello TensorFlow convertito in TensorFlow Lite . (Se non hai ancora convertito un modello, puoi sperimentare utilizzando il modello fornito con l'esempio collegato di seguito.)
Informazioni sul pacchetto di runtime TensorFlow Lite
Per iniziare rapidamente a eseguire i modelli TensorFlow Lite con Python, puoi installare solo l'interprete TensorFlow Lite, invece di tutti i pacchetti TensorFlow. Chiamiamo questo pacchetto Python semplificato tflite_runtime
.
Il pacchetto tflite_runtime
è una frazione delle dimensioni del pacchetto tensorflow
completo e include il codice minimo necessario per eseguire le inferenze con TensorFlow Lite, principalmente la classe Interpreter
Python. Questo piccolo pacchetto è l'ideale quando tutto ciò che vuoi fare è eseguire modelli .tflite
ed evitare di sprecare spazio su disco con la grande libreria TensorFlow.
Installa TensorFlow Lite per Python
Puoi installare su Linux con pip:
python3 -m pip install tflite-runtime
Piattaforme supportate
Le ruote Python tflite-runtime
sono predefinite e fornite per queste piattaforme:
- Linux armv7l (ad es. Raspberry Pi 2, 3, 4 e Zero 2 con sistema operativo Raspberry Pi a 32 bit)
- Linux aarch64 (ad es. Raspberry Pi 3, 4 con Debian ARM64)
- Linux x86_64
Se desideri eseguire i modelli TensorFlow Lite su altre piattaforme, dovresti utilizzare il pacchetto TensorFlow completo o creare il pacchetto tflite-runtime da source .
Se stai usando TensorFlow con Coral Edge TPU, dovresti invece seguire la documentazione di configurazione Coral appropriata.
Esegui un'inferenza usando tflite_runtime
Invece di importare Interpreter
dal modulo tensorflow
, ora devi importarlo da tflite_runtime
.
Ad esempio, dopo aver installato il pacchetto sopra, copia ed esegui il file label_image.py
. (probabilmente) fallirà perché non hai installato la libreria tensorflow
. Per risolverlo, modifica questa riga del file:
import tensorflow as tf
Quindi si legge invece:
import tflite_runtime.interpreter as tflite
E poi cambia questa riga:
interpreter = tf.lite.Interpreter(model_path=args.model_file)
Quindi si legge:
interpreter = tflite.Interpreter(model_path=args.model_file)
Ora esegui di nuovo label_image.py
. Questo è tutto! Ora stai eseguendo i modelli TensorFlow Lite.
Per saperne di più
Per maggiori dettagli sull'API
Interpreter
, leggi Carica ed esegui un modello in Python .Se hai un Raspberry Pi, dai un'occhiata a una serie di video su come eseguire il rilevamento di oggetti su Raspberry Pi usando TensorFlow Lite.
Se stai usando un acceleratore Coral ML, dai un'occhiata agli esempi di Coral su GitHub .
Per convertire altri modelli TensorFlow in TensorFlow Lite, leggi il convertitore TensorFlow Lite .
Se vuoi costruire
tflite_runtime
wheel, leggi Build TensorFlow Lite Python Wheel Package