Python-Schnellstart

Mit TensorFlow Lite mit Python ist ideal für Embedded - Geräte auf Basis von Linux, wie Raspberry Pi und Coral Geräte mit Edge - TPU , unter vielen anderen.

Diese Seite zeigt, wie Sie in wenigen Minuten TensorFlow Lite-Modelle mit Python ausführen können. Alles , was Sie brauchen , ist ein TensorFlow Modell zu TensorFlow Lite konvertiert . (Wenn Sie noch kein Modell konvertiert haben, können Sie mit dem Modell experimentieren, das mit dem unten verlinkten Beispiel bereitgestellt wird.)

Über das TensorFlow Lite-Laufzeitpaket

Um schnell mit der Ausführung von TensorFlow Lite-Modellen mit Python zu beginnen, können Sie anstelle aller TensorFlow-Pakete nur den TensorFlow Lite-Interpreter installieren. Wir nennen diese vereinfachte Python - Paket tflite_runtime .

Das tflite_runtime Paket ist ein Bruchteil der Größe des Voll tensorflow Pakets und umfasst den Minimum - Code erforderlich Inferenzen mit TensorFlow Lite- in erster Linie der laufen Interpreter Python Klasse. Dieses kleine Paket ist ideal , wenn alles , was Sie tun möchten , ist auszuführen .tflite Modelle und vermeiden Sie verschwenden Speicherplatz mit der großen TensorFlow Bibliothek.

TensorFlow Lite für Python installieren

Wenn Sie Debian Linux oder ein Derivat von Debian (einschließlich Raspberry Pi OS) verwenden, sollten Sie von unserem Debian-Paket-Repository installieren. Dies erfordert, dass Sie Ihrem System eine neue Repository-Liste und einen neuen Schlüssel hinzufügen und dann wie folgt installieren:

echo "deb https://packages.cloud.google.com/apt coral-edgetpu-stable main" | sudo tee /etc/apt/sources.list.d/coral-edgetpu.list
curl https://packages.cloud.google.com/apt/doc/apt-key.gpg | sudo apt-key add -
sudo apt-get update
sudo apt-get install python3-tflite-runtime

Für alle anderen Systeme können Sie mit pip installieren:

pip3 install --index-url https://google-coral.github.io/py-repo/ tflite_runtime

Wenn Sie möchten , um manuell ein Python Rad installieren, können Sie eine aus wählen alle tflite_runtime Räder .

Führen Sie eine Inferenz mit tflite_runtime aus

Statt den Import Interpreter aus dem tensorflow Modul, müssen Sie jetzt aus importieren tflite_runtime .

Zum Beispiel, nachdem Sie das Paket oben installieren, zu kopieren und die laufen label_image.py Datei. Es wird (wahrscheinlich) scheitern , weil Sie nicht die haben tensorflow Bibliothek installiert. Um das Problem zu beheben, bearbeiten Sie diese Zeile der Datei:

import tensorflow as tf

Es lautet also stattdessen:

import tflite_runtime.interpreter as tflite

Und dann diese Zeile ändern:

interpreter = tf.lite.Interpreter(model_path=args.model_file)

Es lautet also:

interpreter = tflite.Interpreter(model_path=args.model_file)

Jetzt laufen label_image.py wieder. Das ist es! Sie führen jetzt TensorFlow Lite-Modelle aus.

Mehr erfahren

Weitere Details über den Interpreter - API, lesen Sie laden und ein Modell in Python laufen .

Wenn Sie ein Raspberry Pi haben, versuchen Sie das classify_picamera.py Beispiel Bildklassifizierung mit der Pi - Kamera und TensorFlow Lite auszuführen.

Wenn Sie einen Coral ML - Beschleuniger verwenden, überprüfen Sie die aus Coral Beispiele auf GitHub .

So konvertieren andere TensorFlow Modelle TensorFlow Lite, lesen Sie über die der TensorFlow Lite Converter .

Wenn Sie bauen wollen tflite_runtime Rad, lesen Sie Erstellen TensorFlow Lite Python Räder - Paket