TensorFlow Lite Model Maker

Überblick

Die TensorFlow Lite Model Maker-Bibliothek vereinfacht das Trainieren eines TensorFlow Lite-Modells mithilfe eines benutzerdefinierten Datasets. Es verwendet Transferlernen, um die Menge der erforderlichen Trainingsdaten zu reduzieren und die Trainingszeit zu verkürzen.

Unterstützte Aufgaben

Die Model Maker-Bibliothek unterstützt derzeit die folgenden ML-Aufgaben. Klicken Sie auf die folgenden Links, um Anleitungen zum Trainieren des Modells zu erhalten.

Unterstützte Aufgaben Task-Dienstprogramm
Bildklassifizierung: Tutorial , API Klassifizieren Sie Bilder in vordefinierte Kategorien.
Objekterkennung: Tutorial , API Erkennen Sie Objekte in Echtzeit.
Textklassifizierung: Tutorial , API Klassifizieren Sie Text in vordefinierte Kategorien.
BERT Frage Antwort: Tutorial , API Finden Sie die Antwort in einem bestimmten Kontext für eine bestimmte Frage mit BERT.
Audio-Klassifizierung: Tutorial , API Klassifizieren Sie Audio in vordefinierte Kategorien.
Empfehlung: Demo , API Empfehlen Sie Elemente basierend auf den Kontextinformationen für das Szenario auf dem Gerät.

Wenn Ihre Aufgaben nicht unterstützt werden, verwenden Sie bitte zuerst TensorFlow , um ein TensorFlow-Modell mit Transferlernen (gemäß Anleitungen wie Bilder , Text , Audio ) neu zu trainieren oder es von Grund auf zu trainieren und es dann in das TensorFlow Lite-Modell zu konvertieren .

Ende-zu-Ende-Beispiel

Mit Model Maker können Sie ein TensorFlow Lite-Modell mit benutzerdefinierten Datensätzen in nur wenigen Codezeilen trainieren. Hier sind beispielsweise die Schritte zum Trainieren eines Bildklassifizierungsmodells.

from tflite_model_maker import image_classifier
from tflite_model_maker.image_classifier import DataLoader

# Load input data specific to an on-device ML app.
data = DataLoader.from_folder('flower_photos/')
train_data, test_data = data.split(0.9)

# Customize the TensorFlow model.
model = image_classifier.create(train_data)

# Evaluate the model.
loss, accuracy = model.evaluate(test_data)

# Export to Tensorflow Lite model and label file in `export_dir`.
model.export(export_dir='/tmp/')

Weitere Informationen finden Sie im Bildklassifizierungshandbuch .

Installation

Es gibt zwei Möglichkeiten, Model Maker zu installieren.

  • Installieren Sie ein vorgefertigtes Pip-Paket.
pip install tflite-model-maker

Wenn Sie die nächtliche Version installieren möchten, folgen Sie bitte dem Befehl:

pip install tflite-model-maker-nightly
  • Klonen Sie den Quellcode von GitHub und installieren Sie ihn.
git clone https://github.com/tensorflow/examples
cd examples/tensorflow_examples/lite/model_maker/pip_package
pip install -e .

TensorFlow Lite Model Maker hängt vom TensorFlow Pip-Paket ab . Informationen zu GPU-Treibern finden Sie im GPU-Handbuch oder im Installationshandbuch von TensorFlow.

Python-API-Referenz

Die öffentlichen APIs von Model Maker finden Sie in der API-Referenz .