Bereitstellen von Modellen für maschinelles Lernen auf mobilen und IoT-Geräten
TensorFlow Lite ist ein Open-Source-Deep-Learning-Framework für Inferenz auf dem Gerät.
Wie es funktioniert
Wähle ein Modell
Wählen Sie ein neues Modell aus oder trainieren Sie ein vorhandenes um.
Konvertieren
Konvertieren Sie ein TensorFlow-Modell mit dem TensorFlow Lite Converter in einen komprimierten flachen Puffer.
Einsetzen
Nehmen Sie die komprimierte .tflite-Datei und laden Sie sie auf ein mobiles oder eingebettetes Gerät.
Optimieren
Quantisieren Sie, indem Sie 32-Bit-Floats in effizientere 8-Bit-Ganzzahlen konvertieren oder auf der GPU ausführen.
Lösungen für häufige Probleme
Entdecken Sie optimierte TF Lite-Modelle und geräteinterne ML-Lösungen für mobile und Edge-Anwendungsfälle.

Identifizieren Sie Hunderte von Objekten, darunter Menschen, Aktivitäten, Tiere, Pflanzen und Orte.

Erkennen Sie mehrere Objekte mit Begrenzungsrahmen. Ja, auch Hunde und Katzen.

Verwenden Sie ein modernes natürliches Sprachmodell, um Fragen basierend auf dem Inhalt einer bestimmten Textpassage mit BERT zu beantworten.
Die Beteiligung der Gemeinschaft
Sehen Sie sich weitere Möglichkeiten zur Teilnahme an der TensorFlow-Community an.
Einige unserer TensorFlow Lite-Benutzer

Besuchen Sie die Website, um Projekte zu sehen, die Arduino und TensorFlow kombinieren, um tolle Erlebnisse und nützliche Tools zu schaffen. Finden Sie hilfreiche Links zum Erstellen eigener Experimente und erfahren Sie, wie Sie an der TF Micro Challenge teilnehmen können.

Erfahren Sie, wie Sie ein benutzerdefiniertes Objekterkennungsmodell trainieren und es mit nur wenigen Codezeilen in einer Android-App bereitstellen. Sie benötigen lediglich Android Studio und einen Webbrowser. Es sind keine maschinellen Lernkenntnisse erforderlich.

Entdecken Sie Lösungen, die Ihnen bei der Integration von maschinellem Lernen in Ihre Mobil- und Web-Apps helfen, sowie neue Lernpfade für Google-Entwickler, die Sie durch gängige ML-Szenarien und benutzerdefinierte Anwendungsfälle führen.

Um die Lücke zwischen mobiler und Web-ML-Entwicklung zu schließen, können Sie die TensorFlow Lite-Aufgabenbibliothek mit der Leistung von WebAssembly ganz einfach im Web bereitstellen.