Inferencia de TensorFlow Lite con metadatos

Inferir modelos con metadatos puede ser tan fácil como unas pocas líneas de código. Los metadatos de TensorFlow Lite contienen una descripción detallada de lo que hace el modelo y cómo utilizarlo. Puede permitir que los generadores de código generen automáticamente el código de inferencia para usted, como el uso de la función de enlace ML de Android Studio o el generador de código de Android TensorFlow Lite . También se puede utilizar para configurar su canal de inferencia personalizado.

Herramientas y bibliotecas

TensorFlow Lite proporciona una variedad de herramientas y bibliotecas para satisfacer diferentes niveles de requisitos de implementación de la siguiente manera:

Generar interfaz de modelo con generadores de código de Android

Hay dos formas de generar automáticamente el código contenedor de Android necesario para el modelo TensorFlow Lite con metadatos:

  1. Android Studio ML Model Binding es una herramienta disponible en Android Studio para importar el modelo TensorFlow Lite a través de una interfaz gráfica. Android Studio configurará automáticamente los ajustes para el proyecto y generará clases contenedoras basadas en los metadatos del modelo.

  2. TensorFlow Lite Code Generator es un ejecutable que genera una interfaz de modelo automáticamente en función de los metadatos. Actualmente es compatible con Android con Java. El código contenedor elimina la necesidad de interactuar directamente con ByteBuffer . En cambio, los desarrolladores pueden interactuar con el modelo TensorFlow Lite con objetos escritos como Bitmap y Rect . Los usuarios de Android Studio también pueden obtener acceso a la función codegen a través de Android Studio ML Binding .

Aproveche las API listas para usar con la biblioteca de tareas de TensorFlow Lite

La biblioteca de tareas de TensorFlow Lite proporciona interfaces de modelos optimizadas y listas para usar para tareas populares de aprendizaje automático, como clasificación de imágenes, preguntas y respuestas, etc. Las interfaces de modelos están diseñadas específicamente para que cada tarea logre el mejor rendimiento y usabilidad. La biblioteca de tareas funciona multiplataforma y es compatible con Java, C++ y Swift.

Cree canales de inferencia personalizados con la biblioteca de soporte de TensorFlow Lite

La biblioteca de soporte de TensorFlow Lite es una biblioteca multiplataforma que ayuda a personalizar la interfaz del modelo y crear canales de inferencia. Contiene una variedad de métodos útiles y estructuras de datos para realizar procesamiento previo y posterior y conversión de datos. También está diseñado para coincidir con el comportamiento de los módulos de TensorFlow, como TF.Image y TF.Text, lo que garantiza la coherencia desde el entrenamiento hasta la inferencia.

Explore modelos previamente entrenados con metadatos

Explore los modelos alojados en TensorFlow Lite y TensorFlow Hub para descargar modelos previamente entrenados con metadatos para tareas de visión y texto. Vea también diferentes opciones de visualización de los metadatos .

Soporte para TensorFlow Lite Repositorio de GitHub

Visite el repositorio de GitHub de soporte de TensorFlow Lite para obtener más ejemplos y código fuente. Háganos saber sus comentarios creando una nueva edición de GitHub .