Diese Seite wurde von der Cloud Translation API übersetzt.
Switch to English

TensorFlow Lite-Anleitung

TensorFlow Lite ist eine Reihe von Tools, mit denen Entwickler TensorFlow-Modelle auf Mobil-, Embedded- und IoT-Geräten ausführen können. Es ermöglicht maschinelles Lernen auf dem Gerät mit geringer Latenz und kleiner Binärgröße.

TensorFlow Lite besteht aus zwei Hauptkomponenten:

  • Der TensorFlow Lite-Interpreter , der speziell optimierte Modelle auf vielen verschiedenen Hardwaretypen ausführt, einschließlich Mobiltelefonen, eingebetteten Linux-Geräten und Mikrocontrollern.
  • Der TensorFlow Lite-Konverter , der TensorFlow-Modelle in eine effiziente Form zur Verwendung durch den Interpreter konvertiert und Optimierungen zur Verbesserung der Binärgröße und -leistung einführen kann.

Maschinelles Lernen am Rande

TensorFlow Lite wurde entwickelt, um das maschinelle Lernen auf Geräten "am Rande" des Netzwerks zu vereinfachen, anstatt Daten von einem Server hin und her zu senden. Für Entwickler kann das maschinelle Lernen auf dem Gerät zur Verbesserung beitragen:

  • Latenz: Es gibt keinen Roundtrip zu einem Server
  • Datenschutz: Es müssen keine Daten das Gerät verlassen
  • Konnektivität: Eine Internetverbindung ist nicht erforderlich
  • Stromverbrauch: Netzwerkverbindungen sind stromhungrig

TensorFlow Lite funktioniert mit einer Vielzahl von Geräten, von winzigen Mikrocontrollern bis hin zu leistungsstarken Mobiltelefonen.

Loslegen

Besuchen Sie Erste Schritte, um mit TensorFlow Lite auf Mobilgeräten zu arbeiten. Wenn Sie TensorFlow Lite-Modelle für Mikrocontroller bereitstellen möchten, besuchen Sie Mikrocontroller .

Hauptmerkmale

  • Der Interpreter ist auf ML auf dem Gerät abgestimmt und unterstützt eine Reihe von Kernoperatoren, die für Anwendungen auf dem Gerät optimiert sind und eine kleine Binärgröße haben.
  • Diverse Plattformunterstützung für Android- und iOS- Geräte, eingebettetes Linux und Mikrocontroller, die Plattform-APIs für beschleunigte Inferenz verwenden.
  • APIs für mehrere Sprachen, einschließlich Java, Swift, Objective-C, C ++ und Python.
  • Hohe Leistung mit Hardwarebeschleunigung auf unterstützten Geräten, geräteoptimierten Kerneln und vorab fusionierten Aktivierungen und Verzerrungen .
  • Tools zur Modelloptimierung , einschließlich Quantisierung , mit denen die Größe reduziert und die Leistung von Modellen gesteigert werden kann, ohne die Genauigkeit zu beeinträchtigen.
  • Effizientes Modellformat mit einem FlatBuffer , der für geringe Größe und Portabilität optimiert ist.
  • Vorgefertigte Modelle für gängige maschinelle Lernaufgaben, die an Ihre Anwendung angepasst werden können.
  • Beispiele und Tutorials , die Ihnen zeigen, wie Sie Modelle für maschinelles Lernen auf unterstützten Plattformen bereitstellen.

Entwicklungsworkflow

Der Workflow für die Verwendung von TensorFlow Lite umfasst die folgenden Schritte:

  1. Wählen Sie ein Modell

    Bringen Sie Ihr eigenes TensorFlow-Modell mit, suchen Sie ein Modell online oder wählen Sie ein Modell aus unseren vorgefertigten Modellen aus , um vorbeizuschauen oder umzuschulen.

  2. Konvertieren Sie das Modell

    Wenn Sie ein benutzerdefiniertes Modell verwenden, verwenden Sie den TensorFlow Lite-Konverter und einige Zeilen Python, um es in das TensorFlow Lite-Format zu konvertieren.

  3. Stellen Sie auf Ihrem Gerät bereit

    Führen Sie Ihr Modell auf dem Gerät mit dem TensorFlow Lite-Interpreter mit APIs in vielen Sprachen aus.

  4. Optimieren Sie Ihr Modell

    Verwenden Sie unser Toolkit zur Modelloptimierung , um die Größe Ihres Modells zu reduzieren und seine Effizienz bei minimaler Auswirkung auf die Genauigkeit zu steigern.

Weitere Informationen zur Verwendung von TensorFlow Lite in Ihrem Projekt finden Sie unter Erste Schritte.

Technische Einschränkungen

TensorFlow Lite plant, für jedes TensorFlow-Modell eine leistungsstarke Inferenz auf dem Gerät bereitzustellen. Der TensorFlow Lite-Interpreter unterstützt derzeit jedoch eine begrenzte Teilmenge von TensorFlow-Operatoren, die für die Verwendung auf dem Gerät optimiert wurden. Dies bedeutet, dass einige Modelle zusätzliche Schritte erfordern, um mit TensorFlow Lite zu arbeiten.

Informationen zu den verfügbaren Operatoren finden Sie unter Operatorkompatibilität .

Wenn Ihr Modell Operatoren verwendet, die vom TensorFlow Lite-Interpreter noch nicht unterstützt werden, können Sie TensorFlow Select verwenden , um TensorFlow-Operationen in Ihren TensorFlow Lite-Build aufzunehmen. Dies führt jedoch zu einer erhöhten Binärgröße.

TensorFlow Lite unterstützt derzeit kein On-Device-Training, steht jedoch zusammen mit anderen geplanten Verbesserungen in unserer Roadmap .

Nächste Schritte

Möchten Sie mehr über TensorFlow Lite erfahren? Hier sind einige nächste Schritte: