Inférence TensorFlow Lite avec métadonnées

L’inférence de modèles avec des métadonnées peut être aussi simple que quelques lignes de code. Les métadonnées TensorFlow Lite contiennent une description détaillée de ce que fait le modèle et de la manière de l'utiliser. Il peut permettre aux générateurs de code de générer automatiquement le code d'inférence pour vous, par exemple en utilisant la fonctionnalité Android Studio ML Binding ou le générateur de code Android TensorFlow Lite . Il peut également être utilisé pour configurer votre pipeline d'inférence personnalisé.

Outils et bibliothèques

TensorFlow Lite fournit une variété d'outils et de bibliothèques pour répondre à différents niveaux d'exigences de déploiement, comme suit :

Générer une interface de modèle avec les générateurs de code Android

Il existe deux manières de générer automatiquement le code wrapper Android nécessaire pour le modèle TensorFlow Lite avec des métadonnées :

  1. Android Studio ML Model Binding est un outil disponible dans Android Studio pour importer un modèle TensorFlow Lite via une interface graphique. Android Studio configurera automatiquement les paramètres du projet et générera des classes wrapper basées sur les métadonnées du modèle.

  2. TensorFlow Lite Code Generator est un exécutable qui génère automatiquement une interface de modèle en fonction des métadonnées. Il prend actuellement en charge Android avec Java. Le code wrapper supprime le besoin d'interagir directement avec ByteBuffer . Au lieu de cela, les développeurs peuvent interagir avec le modèle TensorFlow Lite avec des objets typés tels que Bitmap et Rect . Les utilisateurs d'Android Studio peuvent également accéder à la fonctionnalité Codegen via Android Studio ML Binding .

Tirez parti des API prêtes à l'emploi avec la bibliothèque de tâches TensorFlow Lite

La bibliothèque de tâches TensorFlow Lite fournit des interfaces de modèles optimisées et prêtes à l'emploi pour les tâches d'apprentissage automatique courantes, telles que la classification d'images, les questions et réponses, etc. Les interfaces de modèles sont spécifiquement conçues pour chaque tâche afin d'obtenir les meilleures performances et convivialité. La bibliothèque de tâches fonctionne sur plusieurs plates-formes et est prise en charge sur Java, C++ et Swift.

Créez des pipelines d'inférence personnalisés avec la bibliothèque de support TensorFlow Lite

La bibliothèque de support TensorFlow Lite est une bibliothèque multiplateforme qui permet de personnaliser l'interface du modèle et de créer des pipelines d'inférence. Il contient une variété de méthodes utiles et de structures de données pour effectuer le pré/post-traitement et la conversion des données. Il est également conçu pour correspondre au comportement des modules TensorFlow, tels que TF.Image et TF.Text, garantissant ainsi la cohérence de la formation à l'inférence.

Explorez des modèles pré-entraînés avec des métadonnées

Parcourez les modèles hébergés TensorFlow Lite et TensorFlow Hub pour télécharger des modèles pré-entraînés avec des métadonnées pour les tâches de vision et de texte. Voir également les différentes options de visualisation des métadonnées .

TensorFlow Lite prend en charge le dépôt GitHub

Visitez le dépôt GitHub du support TensorFlow Lite pour plus d'exemples et de code source. Faites-nous part de vos commentaires en créant un nouveau problème GitHub .