¡Reserva! Google I / O regresa del 18 al 20 de mayo Regístrese ahora
Se usó la API de Cloud Translation para traducir esta página.
Switch to English

Inicio rápido de Python

Usar TensorFlow Lite con Python es ideal para dispositivos integrados basados ​​en Linux, como dispositivos Raspberry Pi y Coral con Edge TPU , entre muchos otros.

Esta página muestra cómo puede comenzar a ejecutar modelos de TensorFlow Lite con Python en solo unos minutos. Todo lo que necesita es un modelo de TensorFlow convertido a TensorFlow Lite . (Si aún no ha convertido un modelo, puede experimentar con el modelo proporcionado con el ejemplo vinculado a continuación).

Acerca del paquete de tiempo de ejecución de TensorFlow Lite

Para comenzar a ejecutar rápidamente modelos de TensorFlow Lite con Python, puede instalar solo el intérprete de TensorFlow Lite, en lugar de todos los paquetes de TensorFlow. A este paquete simplificado de Python lo tflite_runtime .

El paquete tflite_runtime es una fracción del tamaño del paquete completo de tensorflow e incluye el código mínimo necesario para ejecutar inferencias con TensorFlow Lite, principalmente la clase Interpreter Python. Este pequeño paquete es ideal cuando todo lo que desea hacer es ejecutar modelos .tflite y evitar desperdiciar espacio en disco con la gran biblioteca de TensorFlow.

Instalar TensorFlow Lite para Python

Si está ejecutando Debian Linux o un derivado de Debian (incluido el sistema operativo Raspberry Pi), debe instalarlo desde nuestro repositorio de paquetes Debian. Esto requiere que agregue una nueva lista de repositorios y clave a su sistema y luego instale de la siguiente manera:

echo "deb https://packages.cloud.google.com/apt coral-edgetpu-stable main" | sudo tee /etc/apt/sources.list.d/coral-edgetpu.list
curl https://packages.cloud.google.com/apt/doc/apt-key.gpg | sudo apt-key add -
sudo apt-get update
sudo apt-get install python3-tflite-runtime

Para todos los demás sistemas, puede instalar con pip:

pip3 install --extra-index-url https://google-coral.github.io/py-repo/ tflite_runtime

Si desea instalar manualmente una rueda de Python, puede seleccionar una de todas tflite_runtime ruedas tflite_runtime .

Ejecute una inferencia usando tflite_runtime

En lugar de importar Interpreter desde el módulo tensorflow , ahora necesita importarlo desde tflite_runtime .

Por ejemplo, después de instalar el paquete anterior, copie y ejecute el archivo label_image.py . (Probablemente) fallará porque no tiene instalada la biblioteca tensorflow . Para solucionarlo, edite esta línea del archivo:

import tensorflow as tf

Entonces en su lugar dice:

import tflite_runtime.interpreter as tflite

Y luego cambia esta línea:

interpreter = tf.lite.Interpreter(model_path=args.model_file)

Entonces dice:

interpreter = tflite.Interpreter(model_path=args.model_file)

Ahora ejecute label_image.py nuevamente. ¡Eso es! Ahora está ejecutando modelos de TensorFlow Lite.

Aprende más

Para obtener más detalles sobre la API de Interpreter , lea Cargar y ejecutar un modelo en Python .

Si tiene una Raspberry Pi, pruebe el ejemplo classify_picamera.py para realizar la clasificación de imágenes con la cámara Pi y TensorFlow Lite.

Si está utilizando un acelerador Coral ML, consulte los ejemplos de Coral en GitHub .

Para convertir otros modelos de TensorFlow a TensorFlow Lite, lea sobre el convertidor de TensorFlow Lite .

Si desea compilar tflite_runtime wheel, lea Build TensorFlow Lite Python Wheel Package