Inferencia de TensorFlow Lite con metadatos

La inferencia de modelos con metadatos puede ser tan fácil como unas pocas líneas de código. Los metadatos de TensorFlow Lite contienen una descripción detallada de lo que hace el modelo y cómo usarlo. Puede habilitar a los generadores de código para que generen automáticamente el código de inferencia para usted, como usar la función de enlace de Android Studio ML o el generador de código de Android TensorFlow Lite . También se puede utilizar para configurar su canalización de inferencia personalizada.

Herramientas y bibliotecas

TensorFlow Lite proporciona una variedad de herramientas y bibliotecas para satisfacer diferentes niveles de requisitos de implementación de la siguiente manera:

Genere una interfaz de modelo con generadores de código de Android

Hay dos formas de generar automáticamente el código contenedor de Android necesario para el modelo de TensorFlow Lite con metadatos:

  1. El enlace de modelos de Android Studio ML es una herramienta disponible en Android Studio para importar el modelo de TensorFlow Lite a través de una interfaz gráfica. Android Studio configurará automáticamente la configuración del proyecto y generará clases contenedoras según los metadatos del modelo.

  2. TensorFlow Lite Code Generator es un ejecutable que genera una interfaz de modelo automáticamente en función de los metadatos. Actualmente es compatible con Android con Java. El código contenedor elimina la necesidad de interactuar directamente con ByteBuffer . En cambio, los desarrolladores pueden interactuar con el modelo de TensorFlow Lite con objetos escritos como Bitmap y Rect . Los usuarios de Android Studio también pueden obtener acceso a la función codegen a través de Android Studio ML Binding .

Aproveche las API listas para usar con la biblioteca de tareas de TensorFlow Lite

La biblioteca de tareas de TensorFlow Lite proporciona interfaces de modelo optimizadas y listas para usar para tareas populares de aprendizaje automático, como clasificación de imágenes, preguntas y respuestas, etc. Las interfaces de modelo están diseñadas específicamente para cada tarea para lograr el mejor rendimiento y usabilidad. La biblioteca de tareas funciona en varias plataformas y es compatible con Java, C ++ y Swift.

Cree canalizaciones de inferencia personalizadas con la biblioteca de compatibilidad de TensorFlow Lite

La biblioteca de compatibilidad de TensorFlow Lite es una biblioteca multiplataforma que ayuda a personalizar la interfaz del modelo y crear canalizaciones de inferencia. Contiene una variedad de métodos útiles y estructuras de datos para realizar pre / post procesamiento y conversión de datos. También está diseñado para coincidir con el comportamiento de los módulos de TensorFlow, como TF.Image y TF.Text, lo que garantiza la coherencia desde el entrenamiento hasta la inferencia.

Explore modelos previamente entrenados con metadatos

Explore los modelos alojados de TensorFlow Lite y TensorFlow Hub para descargar modelos previamente entrenados con metadatos para tareas tanto de visión como de texto. Vea también diferentes opciones de visualización de metadatos .

Repositorio de GitHub de soporte de TensorFlow Lite

Visita el repositorio de GitHub de soporte de TensorFlow Lite para obtener más ejemplos y código fuente. Háganos saber sus comentarios creando un nuevo problema de GitHub .