Avvio rapido per dispositivi basati su Linux con Python

Mantieni tutto organizzato con le raccolte Salva e classifica i contenuti in base alle tue preferenze.

L'uso di TensorFlow Lite con Python è ottimo per i dispositivi embedded basati su Linux, come i dispositivi Raspberry Pi e Coral con Edge TPU , tra molti altri.

Questa pagina mostra come iniziare a eseguire i modelli TensorFlow Lite con Python in pochi minuti. Tutto ciò che serve è un modello TensorFlow convertito in TensorFlow Lite . (Se non hai ancora convertito un modello, puoi sperimentare utilizzando il modello fornito con l'esempio collegato di seguito.)

Informazioni sul pacchetto di runtime TensorFlow Lite

Per iniziare rapidamente a eseguire i modelli TensorFlow Lite con Python, puoi installare solo l'interprete TensorFlow Lite, invece di tutti i pacchetti TensorFlow. Chiamiamo questo pacchetto Python semplificato tflite_runtime .

Il pacchetto tflite_runtime è una frazione delle dimensioni del pacchetto tensorflow completo e include il codice minimo necessario per eseguire le inferenze con TensorFlow Lite, principalmente la classe Interpreter Python. Questo piccolo pacchetto è l'ideale quando tutto ciò che vuoi fare è eseguire modelli .tflite ed evitare di sprecare spazio su disco con la grande libreria TensorFlow.

Installa TensorFlow Lite per Python

Puoi installare su Linux con pip:

python3 -m pip install tflite-runtime

Piattaforme supportate

Le ruote Python tflite-runtime sono predefinite e fornite per queste piattaforme:

  • Linux armv7l (ad es. Raspberry Pi 2, 3, 4 e Zero 2 con sistema operativo Raspberry Pi a 32 bit)
  • Linux aarch64 (ad es. Raspberry Pi 3, 4 con Debian ARM64)
  • Linux x86_64

Se desideri eseguire i modelli TensorFlow Lite su altre piattaforme, dovresti utilizzare il pacchetto TensorFlow completo o creare il pacchetto tflite-runtime da source .

Se stai usando TensorFlow con Coral Edge TPU, dovresti invece seguire la documentazione di configurazione Coral appropriata.

Esegui un'inferenza usando tflite_runtime

Invece di importare Interpreter dal modulo tensorflow , ora devi importarlo da tflite_runtime .

Ad esempio, dopo aver installato il pacchetto sopra, copia ed esegui il file label_image.py . (probabilmente) fallirà perché non hai installato la libreria tensorflow . Per risolverlo, modifica questa riga del file:

import tensorflow as tf

Quindi si legge invece:

import tflite_runtime.interpreter as tflite

E poi cambia questa riga:

interpreter = tf.lite.Interpreter(model_path=args.model_file)

Quindi si legge:

interpreter = tflite.Interpreter(model_path=args.model_file)

Ora esegui di nuovo label_image.py . Questo è tutto! Ora stai eseguendo i modelli TensorFlow Lite.

Per saperne di più

,

L'uso di TensorFlow Lite con Python è ottimo per i dispositivi embedded basati su Linux, come i dispositivi Raspberry Pi e Coral con Edge TPU , tra molti altri.

Questa pagina mostra come iniziare a eseguire i modelli TensorFlow Lite con Python in pochi minuti. Tutto ciò che serve è un modello TensorFlow convertito in TensorFlow Lite . (Se non hai ancora convertito un modello, puoi sperimentare utilizzando il modello fornito con l'esempio collegato di seguito.)

Informazioni sul pacchetto di runtime TensorFlow Lite

Per iniziare rapidamente a eseguire i modelli TensorFlow Lite con Python, puoi installare solo l'interprete TensorFlow Lite, invece di tutti i pacchetti TensorFlow. Chiamiamo questo pacchetto Python semplificato tflite_runtime .

Il pacchetto tflite_runtime è una frazione delle dimensioni del pacchetto tensorflow completo e include il codice minimo necessario per eseguire le inferenze con TensorFlow Lite, principalmente la classe Interpreter Python. Questo piccolo pacchetto è l'ideale quando tutto ciò che vuoi fare è eseguire modelli .tflite ed evitare di sprecare spazio su disco con la grande libreria TensorFlow.

Installa TensorFlow Lite per Python

Puoi installare su Linux con pip:

python3 -m pip install tflite-runtime

Piattaforme supportate

Le ruote Python tflite-runtime sono predefinite e fornite per queste piattaforme:

  • Linux armv7l (ad es. Raspberry Pi 2, 3, 4 e Zero 2 con sistema operativo Raspberry Pi a 32 bit)
  • Linux aarch64 (ad es. Raspberry Pi 3, 4 con Debian ARM64)
  • Linux x86_64

Se desideri eseguire i modelli TensorFlow Lite su altre piattaforme, dovresti utilizzare il pacchetto TensorFlow completo o creare il pacchetto tflite-runtime da source .

Se stai usando TensorFlow con Coral Edge TPU, dovresti invece seguire la documentazione di configurazione Coral appropriata.

Esegui un'inferenza usando tflite_runtime

Invece di importare Interpreter dal modulo tensorflow , ora devi importarlo da tflite_runtime .

Ad esempio, dopo aver installato il pacchetto sopra, copia ed esegui il file label_image.py . (probabilmente) fallirà perché non hai installato la libreria tensorflow . Per risolverlo, modifica questa riga del file:

import tensorflow as tf

Quindi si legge invece:

import tflite_runtime.interpreter as tflite

E poi cambia questa riga:

interpreter = tf.lite.Interpreter(model_path=args.model_file)

Quindi si legge:

interpreter = tflite.Interpreter(model_path=args.model_file)

Ora esegui di nuovo label_image.py . Questo è tutto! Ora stai eseguendo i modelli TensorFlow Lite.

Per saperne di più