Python-Schnellstart

Die Verwendung von TensorFlow Lite mit Python eignet sich hervorragend für eingebettete Geräte auf Linux-Basis, z. B. Raspberry Pi und Coral-Geräte mit Edge-TPU .

Diese Seite zeigt, wie Sie TensorFlow Lite-Modelle mit Python in wenigen Minuten ausführen können. Sie benötigen lediglich ein TensorFlow-Modell, das in TensorFlow Lite konvertiert wurde . (Wenn Sie noch kein Modell konvertiert haben, können Sie mit dem Modell experimentieren, das mit dem unten verlinkten Beispiel bereitgestellt wird.)

Informationen zum TensorFlow Lite-Laufzeitpaket

Um schnell mit der Ausführung von TensorFlow Lite-Modellen mit Python zu beginnen, können Sie anstelle aller TensorFlow-Pakete nur den TensorFlow Lite-Interpreter installieren. Wir nennen dieses vereinfachte Python-Paket tflite_runtime .

Das Paket tflite_runtime ist ein Bruchteil der Größe des vollständigen tensorflow Pakets und enthält den Mindestcode, der zum Ausführen von Inferenzen mit TensorFlow Lite erforderlich ist - hauptsächlich die Interpreter Python-Klasse. Dieses kleine Paket ist ideal, wenn Sie nur .tflite Modelle ausführen und mit der großen TensorFlow-Bibliothek keinen Speicherplatz verschwenden möchten.

Installieren Sie TensorFlow Lite für Python

Wenn Sie Debian Linux oder ein Derivat von Debian (einschließlich Raspberry Pi OS) ausführen, sollten Sie es von unserem Debian-Paket-Repo installieren. Dazu müssen Sie Ihrem System eine neue Repo-Liste und einen neuen Schlüssel hinzufügen und anschließend wie folgt installieren:

echo "deb https://packages.cloud.google.com/apt coral-edgetpu-stable main" | sudo tee /etc/apt/sources.list.d/coral-edgetpu.list
curl https://packages.cloud.google.com/apt/doc/apt-key.gpg | sudo apt-key add -
sudo apt-get update
sudo apt-get install python3-tflite-runtime

Für alle anderen Systeme können Sie mit pip installieren:

pip3 install --index-url https://google-coral.github.io/py-repo/ tflite_runtime

Wenn Sie ein Python-Rad manuell installieren tflite_runtime , können Sie eines aus allen tflite_runtime Rädern auswählen.

Führen Sie eine Inferenz mit tflite_runtime aus

Anstatt Interpreter aus dem tensorflow Modul zu importieren, müssen Sie ihn jetzt aus tflite_runtime .

Kopieren Sie beispielsweise nach der Installation des obigen Pakets die Datei label_image.py und führen label_image.py . Es wird (wahrscheinlich) fehlschlagen, weil Sie die tensorflow Bibliothek nicht installiert haben. Bearbeiten Sie diese Zeile der Datei, um das Problem zu beheben:

import tensorflow as tf

Also lautet es stattdessen:

import tflite_runtime.interpreter as tflite

Und dann ändern Sie diese Zeile:

interpreter = tf.lite.Interpreter(model_path=args.model_file)

So lautet es:

interpreter = tflite.Interpreter(model_path=args.model_file)

Führen label_image.py nun label_image.py erneut aus. Das ist es! Sie führen jetzt TensorFlow Lite-Modelle aus.

Mehr erfahren

Weitere Informationen zur Interpreter API finden Sie unter Laden und Ausführen eines Modells in Python .

Wenn Sie einen Raspberry Pi haben, versuchen Sie das Beispiel classify_picamera.py , um eine Bildklassifizierung mit der Pi-Kamera und TensorFlow Lite durchzuführen.

Wenn Sie einen Coral ML-Beschleuniger verwenden, lesen Sie die Coral-Beispiele auf GitHub .

Informationen zum Konvertieren anderer TensorFlow-Modelle in TensorFlow Lite finden Sie im TensorFlow Lite-Konverter .

Wenn Sie ein tflite_runtime Rad erstellen tflite_runtime , lesen Sie Build TensorFlow Lite Python Wheel Package