¡El Día de la Comunidad de ML es el 9 de noviembre! Únase a nosotros para recibir actualizaciones de TensorFlow, JAX, y más Más información

Inicio rápido de Python

Usando TensorFlow Lite con Python es ideal para dispositivos embebidos basados en Linux, como el Raspberry Pi y dispositivos de coral con el borde de TPU , entre muchos otros.

Esta página muestra cómo puede comenzar a ejecutar modelos de TensorFlow Lite con Python en solo unos minutos. Todo lo que necesita es un modelo TensorFlow convierte en TensorFlow Lite . (Si aún no ha convertido un modelo, puede experimentar con el modelo proporcionado con el ejemplo vinculado a continuación).

Acerca del paquete de tiempo de ejecución de TensorFlow Lite

Para comenzar a ejecutar rápidamente modelos de TensorFlow Lite con Python, puede instalar solo el intérprete de TensorFlow Lite, en lugar de todos los paquetes de TensorFlow. Llamamos a este paquete de Python simplificado tflite_runtime .

El tflite_runtime paquete es una fracción del tamaño de la totalidad de tensorflow paquete e incluye el código mínimo necesario para ejecutar inferencias con TensorFlow-principalmente Lite el Interpreter clase Python. Este pequeño paquete es ideal cuando lo que quieres hacer es ejecutar .tflite modelos y espacio en disco emaciación evitar la gran biblioteca TensorFlow.

Instalar TensorFlow Lite para Python

Si está ejecutando Debian Linux o un derivado de Debian (incluido el sistema operativo Raspberry Pi), debe instalarlo desde nuestro repositorio de paquetes Debian. Esto requiere que agregue una nueva lista de repositorios y clave a su sistema y luego instale de la siguiente manera:

echo "deb https://packages.cloud.google.com/apt coral-edgetpu-stable main" | sudo tee /etc/apt/sources.list.d/coral-edgetpu.list
curl https://packages.cloud.google.com/apt/doc/apt-key.gpg | sudo apt-key add -
sudo apt-get update
sudo apt-get install python3-tflite-runtime

Para todos los demás sistemas, puede instalar con pip:

pip3 install --extra-index-url https://google-coral.github.io/py-repo/ tflite_runtime

Si desea instalar manualmente una rueda de Python, puede seleccionar uno de los tflite_runtime ruedas .

Ejecute una inferencia usando tflite_runtime

En lugar de importar Interpreter de la tensorflow módulo, ahora tiene que importarlo de tflite_runtime .

Por ejemplo, después de instalar el paquete anterior, copiar y ejecutar el label_image.py archivo. Será (probablemente) fallan porque no tiene la tensorflow instalado biblioteca. Para solucionarlo, edite esta línea del archivo:

import tensorflow as tf

Entonces en su lugar dice:

import tflite_runtime.interpreter as tflite

Y luego cambia esta línea:

interpreter = tf.lite.Interpreter(model_path=args.model_file)

Entonces dice:

interpreter = tflite.Interpreter(model_path=args.model_file)

Ahora corre label_image.py nuevo. ¡Eso es todo! Ahora está ejecutando modelos de TensorFlow Lite.

Aprende más

Para más detalles sobre el Interpreter API, lea Cargar y ejecutar un modelo en Python .

Si usted tiene un Frambuesa Pi, probar el ejemplo classify_picamera.py para llevar a cabo la clasificación de imágenes con la cámara Pi y TensorFlow Lite.

Si está utilizando un acelerador de Coral ML, echa un vistazo a los ejemplos coralinos en GitHub .

Para convertir a otros modelos TensorFlow TensorFlow Lite, leer sobre el TensorFlow Lite convertidor .

Si usted quiere construir tflite_runtime rueda, leer Construir TensorFlow Lite Python paquete de ruedas