Conversor de TensorFlow Lite

El conversor de TensorFlow Lite se usa para convertir los modelos de TensorFlow a un formato FlatBuffer optimizado, de modo que el intérprete de TensorFlow Lite pueda usarlos.

FlatBuffers

FlatBuffer es una biblioteca eficiente de código abierto, de serialización multiplataforma. Es similar a los búferes de protocolo, con la diferencia de que los FlatBuffers no necesitan un paso de análisis y descompresión para obtener una representación secundaria antes de poder acceder a los datos; de esta manera, se evita la asignación de memoria por objeto. La huella del código de FlatBuffers es un orden de magnitud menor que los búferes de protocolo.

Desde el entrenamiento de modelos hasta la implementación en dispositivos

El conversor de TensorFlow Lite genera un archivo FlatBuffer (.tflite) a partir de un modelo de TensorFlow.

El conversor es compatible con los siguientes formatos de entrada:

El archivo FlatBuffer de TensorFlow Lite se implementa en un dispositivo cliente, y el intérprete de TensorFlow Lite usa el modelo comprimido para la inferencia en el dispositivo. El proceso de conversión se muestra en el siguiente diagrama:

Flujo de trabajo del conversor de TFLite

Opciones

El conversor de TensorFlow Lite se puede usar con cualquiera de estas dos opciones:

  • Python (preferido): El uso de la API de Python facilita la conversión de modelos como parte de una canalización de desarrollo de modelos y ayuda a mitigar los problemas de compatibilidad de forma temprana.
  • Línea de comandos