Inicio rápido para dispositivos basados ​​en Linux con Python

Usar TensorFlow Lite con Python es ideal para dispositivos integrados basados ​​en Linux, como Raspberry Pi y dispositivos Coral con Edge TPU , entre muchos otros.

Esta página muestra cómo puede comenzar a ejecutar modelos de TensorFlow Lite con Python en solo unos minutos. Todo lo que necesitas es un modelo de TensorFlow convertido a TensorFlow Lite . (Si aún no tiene un modelo convertido, puede experimentar usando el modelo proporcionado con el ejemplo vinculado a continuación).

Acerca del paquete de tiempo de ejecución de TensorFlow Lite

Para comenzar rápidamente a ejecutar modelos de TensorFlow Lite con Python, puede instalar solo el intérprete de TensorFlow Lite, en lugar de todos los paquetes de TensorFlow. A este paquete Python simplificado lo llamamos tflite_runtime .

El paquete tflite_runtime es una fracción del tamaño del paquete tensorflow completo e incluye el código mínimo necesario para ejecutar inferencias con TensorFlow Lite, principalmente la clase Interpreter Python. Este pequeño paquete es ideal cuando todo lo que desea hacer es ejecutar modelos .tflite y evitar desperdiciar espacio en disco con la gran biblioteca TensorFlow.

Instalar TensorFlow Lite para Python

Puedes instalar en Linux con pip:

python3 -m pip install tflite-runtime

Plataformas compatibles

Las ruedas Python tflite-runtime están prediseñadas y se proporcionan para estas plataformas:

  • Linux armv7l (por ejemplo, Raspberry Pi 2, 3, 4 y Zero 2 con sistema operativo Raspberry Pi de 32 bits)
  • Linux aarch64 (por ejemplo, Raspberry Pi 3, 4 con Debian ARM64)
  • Linuxx86_64

Si desea ejecutar modelos de TensorFlow Lite en otras plataformas, debe usar el paquete completo de TensorFlow o compilar el paquete tflite-runtime desde el código fuente .

Si está utilizando TensorFlow con Coral Edge TPU, debe seguir la documentación de configuración de Coral correspondiente.

Ejecute una inferencia usando tflite_runtime

En lugar de importar Interpreter desde el módulo tensorflow , ahora debes importarlo desde tflite_runtime .

Por ejemplo, después de instalar el paquete anterior, copie y ejecute el archivo label_image.py . (Probablemente) fallará porque no tiene instalada la biblioteca tensorflow . Para solucionarlo, edite esta línea del archivo:

import tensorflow as tf

Entonces en su lugar se lee:

import tflite_runtime.interpreter as tflite

Y luego cambia esta línea:

interpreter = tf.lite.Interpreter(model_path=args.model_file)

Entonces se lee:

interpreter = tflite.Interpreter(model_path=args.model_file)

Ahora ejecute label_image.py nuevamente. ¡Eso es todo! Ahora estás ejecutando modelos de TensorFlow Lite.

Aprende más