Questa pagina è stata tradotta dall'API Cloud Translation.
Switch to English

Avvio rapido di Python

L'utilizzo di TensorFlow Lite con Python è ottimo per i dispositivi embedded basati su Linux, come i dispositivi Raspberry Pi e Coral con Edge TPU , tra molti altri.

Questa pagina mostra come iniziare a eseguire i modelli TensorFlow Lite con Python in pochi minuti. Tutto ciò di cui hai bisogno è un modello TensorFlow convertito in TensorFlow Lite . (Se non hai ancora un modello convertito, puoi sperimentare utilizzando il modello fornito con l'esempio collegato di seguito.)

Installa solo l'interprete TensorFlow Lite

Per eseguire rapidamente i modelli TensorFlow Lite con Python, è possibile installare solo l'interprete TensorFlow Lite, invece di tutti i pacchetti TensorFlow.

Questo pacchetto solo interprete è una frazione delle dimensioni del pacchetto TensorFlow completo e include il codice minimo necessario per eseguire inferenze con TensorFlow Lite — include solo la classe Python tf.lite.Interpreter . Questo piccolo pacchetto è ideale quando tutto ciò che vuoi fare è eseguire modelli .tflite ed evitare di sprecare spazio su disco con la grande libreria TensorFlow.

Per installare, eseguire pip3 install e passargli l'URL della ruota Python appropriato dalla tabella seguente.

Ad esempio, se hai Raspberry Pi che esegue Raspbian Buster (che ha Python 3.7), installa la ruota Python come segue:

pip3 install https://dl.google.com/coral/python/tflite_runtime-2.1.0.post1-cp37-cp37m-linux_armv7l.whl
piattaforma Pitone URL
Linux (ARM 32) 3.5 https://dl.google.com/coral/python/tflite_runtime-2.1.0.post1-cp35-cp35m-linux_armv7l.whl
3.6 https://dl.google.com/coral/python/tflite_runtime-2.1.0.post1-cp36-cp36m-linux_armv7l.whl
3.7 https://dl.google.com/coral/python/tflite_runtime-2.1.0.post1-cp37-cp37m-linux_armv7l.whl
3.8 https://dl.google.com/coral/python/tflite_runtime-2.1.0.post1-cp38-cp38-linux_armv7l.whl
Linux (ARM 64) 3.5 https://dl.google.com/coral/python/tflite_runtime-2.1.0.post1-cp35-cp35m-linux_aarch64.whl
3.6 https://dl.google.com/coral/python/tflite_runtime-2.1.0.post1-cp36-cp36m-linux_aarch64.whl
3.7 https://dl.google.com/coral/python/tflite_runtime-2.1.0.post1-cp37-cp37m-linux_aarch64.whl
3.8 https://dl.google.com/coral/python/tflite_runtime-2.1.0.post1-cp38-cp38-linux_aarch64.whl
Linux (x86-64) 3.5 https://dl.google.com/coral/python/tflite_runtime-2.1.0.post1-cp35-cp35m-linux_x86_64.whl
3.6 https://dl.google.com/coral/python/tflite_runtime-2.1.0.post1-cp36-cp36m-linux_x86_64.whl
3.7 https://dl.google.com/coral/python/tflite_runtime-2.1.0.post1-cp37-cp37m-linux_x86_64.whl
3.8 https://dl.google.com/coral/python/tflite_runtime-2.1.0.post1-cp38-cp38-linux_x86_64.whl
macOS 10.14 3.5 https://dl.google.com/coral/python/tflite_runtime-2.1.0.post1-cp35-cp35m-macosx_10_14_x86_64.whl
3.6 https://dl.google.com/coral/python/tflite_runtime-2.1.0.post1-cp36-cp36m-macosx_10_14_x86_64.whl
3.7 https://dl.google.com/coral/python/tflite_runtime-2.1.0.post1-cp37-cp37m-macosx_10_14_x86_64.whl
Windows 10 3.5 https://dl.google.com/coral/python/tflite_runtime-2.1.0.post1-cp35-cp35m-win_amd64.whl
3.6 https://dl.google.com/coral/python/tflite_runtime-2.1.0.post1-cp36-cp36m-win_amd64.whl
3.7 https://dl.google.com/coral/python/tflite_runtime-2.1.0.post1-cp37-cp37m-win_amd64.whl

Esegui un'inferenza utilizzando tflite_runtime

Per distinguere questo pacchetto solo interprete dal pacchetto TensorFlow completo (consentendo l'installazione di entrambi, se lo si sceglie), il modulo Python fornito nella ruota sopra è chiamato tflite_runtime .

Quindi, invece di importare Interpreter dal modulo tensorflow , devi importarlo da tflite_runtime .

Ad esempio, dopo aver installato il pacchetto precedente, copia ed esegui il file label_image.py . (Probabilmente) fallirà perché non hai la libreria tensorflow installata. Per risolverlo, modifica questa riga del file:

import tensorflow as tf

Quindi si legge invece:

import tflite_runtime.interpreter as tflite

E poi cambia questa linea:

interpreter = tf.lite.Interpreter(model_path=args.model_file)

Quindi si legge:

interpreter = tflite.Interpreter(model_path=args.model_file)

Ora label_image.py nuovo label_image.py . Questo è tutto! Stai ora eseguendo i modelli TensorFlow Lite.

Per saperne di più

Per maggiori dettagli sull'API Interpreter , leggi Carica ed esegui un modello in Python .

Se hai un Raspberry Pi, prova l' esempio classify_picamera.py per eseguire la classificazione delle immagini con la fotocamera Pi e TensorFlow Lite.

Se stai utilizzando un acceleratore Coral ML, controlla gli esempi di Coral su GitHub .

Per convertire altri modelli TensorFlow in TensorFlow Lite, leggi informazioni sul convertitore TensorFlow Lite .