Déployez des modèles de machine learning sur des appareils mobiles et de périphérie

TensorFlow Lite est une bibliothèque mobile conçue pour déployer des modèles sur des appareils mobiles, des microcontrôleurs et d'autres appareils de périphérie.

Afficher le guide

Des guides expliquent les concepts et les composants de TensorFlow Lite.

Afficher des exemples

Découvrez les applications TensorFlow Lite pour Android et iOS.

Accéder aux tutoriels

Découvrez comment utiliser TensorFlow Lite pour des cas d'utilisation courants.

Comment ça marche ?

Choisissez un modèle

Choisissez un nouveau modèle ou réentraînez un modèle existant

Convertir

Convertissez un modèle TensorFlow en un tampon plat compressé avec l'outil de conversion de TensorFlow Lite.

Déployer

Sélectionnez le fichier compressé .tflite, puis importez-le dans un appareil mobile ou un appareil intégré.

Optimiser

Procédez à une quantification en convertissant des nombres à virgule flottante codés sur 32 bits en nombres entiers codés sur 8 bits plus efficaces ou en réalisant l'exécution sur GPU.

Solutions aux problèmes fréquents

Découvrez des modèles TF Lite optimisés et des solutions de machine learning sur appareil pour des cas d'utilisation sur mobiles ou en périphérie.

Classification d'images

Identifiez des centaines d'objets, y compris des personnes, des activités, des animaux, des plantes et des lieux.

Détection d'objets

Détectez de nombreux objets à l'aide de cadres de délimitation (y compris des chiens et des chats).

Réponse à des questions

Utilisez un modèle de langage naturel de pointe pour répondre à des questions portant sur le contenu d'un passage donné à l'aide de BERT.

Actualités et annonces

Consultez notre blog pour en savoir plus, et abonnez-vous à notre newsletter TensorFlow pour recevoir directement les dernières annonces.