Aide à protéger la Grande barrière de corail avec tensorflow sur Kaggle Rejoignez Défi

Inférence TensorFlow Lite avec métadonnées

L'inférence de modèles avec des métadonnées peut être aussi simple que quelques lignes de code. Les métadonnées TensorFlow Lite contiennent une description détaillée de ce que fait le modèle et comment l'utiliser. Il peut permettre aux générateurs de code de générer automatiquement le code d'inférence pour vous, par exemple en utilisant la fonction de liaison Android Studio ML ou le générateur de code Android TensorFlow Lite . Il peut également être utilisé pour configurer votre pipeline d'inférence personnalisé.

Outils et bibliothèques

TensorFlow Lite fournit une variété d'outils et de bibliothèques pour répondre aux différents niveaux d'exigences de déploiement, comme suit:

Générer une interface de modèle avec des générateurs de code Android

Il existe deux façons de générer automatiquement le code wrapper Android nécessaire pour le modèle TensorFlow Lite avec des métadonnées:

  1. La liaison de modèle Android Studio ML est un outil disponible dans Android Studio pour importer le modèle TensorFlow Lite via une interface graphique. Android Studio configurera automatiquement les paramètres du projet et générera des classes wrapper basées sur les métadonnées du modèle.

  2. Le générateur de code TensorFlow Lite est un exécutable qui génère automatiquement une interface de modèle en fonction des métadonnées. Il prend actuellement en charge Android avec Java. Le code wrapper supprime le besoin d'interagir directement avec ByteBuffer . Au lieu de cela, les développeurs peuvent interagir avec le modèle TensorFlow Lite avec des objets typés tels que Bitmap et Rect . Les utilisateurs d'Android Studio peuvent également accéder à la fonction codegen via la liaison Android Studio ML .

Tirez parti des API prêtes à l'emploi avec la bibliothèque de tâches TensorFlow Lite

La bibliothèque de tâches TensorFlow Lite fournit des interfaces de modèle optimisées et prêtes à l'emploi pour les tâches d'apprentissage automatique courantes, telles que la classification d'images, les questions et réponses, etc. La bibliothèque de tâches fonctionne sur plusieurs plates-formes et est prise en charge sur Java, C ++ et Swift.

Créez des pipelines d'inférence personnalisés avec la bibliothèque de support TensorFlow Lite

La bibliothèque de support TensorFlow Lite est une bibliothèque multiplateforme qui permet de personnaliser l'interface du modèle et de créer des pipelines d'inférence. Il contient une variété de méthodes utilitaires et de structures de données pour effectuer le pré / post-traitement et la conversion de données. Il est également conçu pour correspondre au comportement des modules TensorFlow, tels que TF.Image et TF.Text, garantissant la cohérence de la formation à l'inférence.

Explorez des modèles pré-entraînés avec des métadonnées

Parcourez les modèles hébergés TensorFlow Lite et TensorFlow Hub pour télécharger des modèles pré-entraînés avec des métadonnées pour les tâches de vision et de texte. Voir également différentes options de visualisation des métadonnées .

TensorFlow Lite Prise en charge du référentiel GitHub

Visitez le référentiel GitHub du support TensorFlow Lite pour plus d'exemples et de code source. Faites-nous part de vos commentaires en créant un nouveau problème GitHub .