Compatibilidad con operadores de TensorFlow Lite y TensorFlow

Organiza tus páginas con colecciones Guarda y categoriza el contenido según tus preferencias.

Los operadores de aprendizaje automático (ML) que usa en su modelo pueden afectar el proceso de conversión de un modelo TensorFlow al formato TensorFlow Lite. El convertidor TensorFlow Lite admite una cantidad limitada de operaciones de TensorFlow utilizadas en modelos de inferencia comunes, lo que significa que no todos los modelos se pueden convertir directamente. La herramienta de conversión le permite incluir operadores adicionales, pero convertir un modelo de esta manera también requiere que modifique el entorno de tiempo de ejecución de TensorFlow Lite que usa para ejecutar su modelo, lo que puede limitar su capacidad de usar las opciones de implementación de tiempo de ejecución estándar, como los servicios de Google Play .

TensorFlow Lite Converter está diseñado para analizar la estructura del modelo y aplicar optimizaciones para que sea compatible con los operadores compatibles directamente. Por ejemplo, según los operadores de ML en su modelo, el convertidor puede eludir o fusionar esos operadores para asignarlos a sus contrapartes de TensorFlow Lite.

Incluso para las operaciones admitidas, a veces se esperan patrones de uso específicos por motivos de rendimiento. La mejor manera de comprender cómo crear un modelo de TensorFlow que se pueda usar con TensorFlow Lite es considerar detenidamente cómo se convierten y optimizan las operaciones, junto con las limitaciones impuestas por este proceso.

Operadores compatibles

Los operadores integrados de TensorFlow Lite son un subconjunto de los operadores que forman parte de la biblioteca principal de TensorFlow. Su modelo de TensorFlow también puede incluir operadores personalizados en forma de operadores compuestos o nuevos operadores definidos por usted. El siguiente diagrama muestra las relaciones entre estos operadores.

Operadores de TensorFlow

De esta gama de operadores de modelos ML, hay 3 tipos de modelos compatibles con el proceso de conversión:

  1. Modelos con solo el operador integrado TensorFlow Lite. ( Recomendado )
  2. Modelos con los operadores integrados y operadores principales seleccionados de TensorFlow.
  3. Modelos con operadores integrados, operadores principales de TensorFlow y/u operadores personalizados.

Si su modelo solo contiene operaciones que son compatibles de forma nativa con TensorFlow Lite, no necesita indicadores adicionales para convertirlo. Esta es la ruta recomendada porque este tipo de modelo se convertirá sin problemas y es más sencillo de optimizar y ejecutar con el tiempo de ejecución predeterminado de TensorFlow Lite. También tienes más opciones de implementación para tu modelo como los servicios de Google Play . Puede comenzar con la guía de conversión de TensorFlow Lite . Consulte la página TensorFlow Lite Ops para obtener una lista de operadores integrados.

Si necesita incluir operaciones seleccionadas de TensorFlow de la biblioteca principal, debe especificarlo en la conversión y asegurarse de que su tiempo de ejecución incluya esas operaciones. Consulta el tema Seleccionar operadores de TensorFlow para conocer los pasos detallados.

Siempre que sea posible, evite la última opción de incluir operadores personalizados en su modelo convertido. Los operadores personalizados son operadores creados mediante la combinación de varios operadores principales primitivos de TensorFlow o la definición de uno completamente nuevo. Cuando se convierten los operadores personalizados, pueden aumentar el tamaño del modelo general al generar dependencias fuera de la biblioteca integrada de TensorFlow Lite. Las operaciones personalizadas, si no se crean específicamente para la implementación de dispositivos o dispositivos móviles, pueden generar un peor rendimiento cuando se implementan en dispositivos con recursos limitados en comparación con un entorno de servidor. Finalmente, al igual que incluir operadores principales seleccionados de TensorFlow, los operadores personalizados requieren que modifique el entorno de tiempo de ejecución del modelo, lo que le impide aprovechar los servicios de tiempo de ejecución estándar, como los servicios de Google Play .

Tipos admitidos

La mayoría de las operaciones de TensorFlow Lite apuntan tanto a la inferencia de punto flotante ( float32 ) como cuantificada ( uint8 , int8 ), pero muchas operaciones aún no lo hacen para otros tipos como tf.float16 y cadenas.

Además de usar una versión diferente de las operaciones, la otra diferencia entre los modelos de punto flotante y cuantificados es la forma en que se convierten. La conversión cuantificada requiere información de rango dinámico para tensores. Esto requiere una "cuantificación falsa" durante el entrenamiento del modelo, obtener información de rango a través de un conjunto de datos de calibración o realizar una estimación de rango "sobre la marcha". Ver cuantización para más detalles.

Conversiones sencillas, plegado constante y fusión

TensorFlow Lite puede procesar varias operaciones de TensorFlow aunque no tengan un equivalente directo. Este es el caso de las operaciones que pueden simplemente eliminarse del gráfico ( tf.identity ), reemplazarse por tensores ( tf.placeholder ) o fusionarse en operaciones más complejas ( tf.nn.bias_add ). Incluso algunas operaciones admitidas a veces pueden eliminarse a través de uno de estos procesos.

Aquí hay una lista no exhaustiva de las operaciones de TensorFlow que generalmente se eliminan del gráfico:

Operaciones Experimentales

Las siguientes operaciones de TensorFlow Lite están presentes, pero no están listas para modelos personalizados:

  • CALL
  • CONCAT_EMBEDDINGS
  • CUSTOM
  • EMBEDDING_LOOKUP_SPARSE
  • HASHTABLE_LOOKUP
  • LSH_PROJECTION
  • SKIP_GRAM
  • SVDF