Używanie TensorFlow Lite z Pythonem jest świetne w przypadku urządzeń wbudowanych opartych na systemie Linux, takich jak urządzenia Raspberry Pi i Coral z Edge TPU , i wiele innych.
Ta strona pokazuje, jak w kilka minut można zacząć uruchamiać modele TensorFlow Lite w Pythonie. Wszystko czego potrzebujesz to model TensorFlow przekonwertowany na TensorFlow Lite . (Jeśli nie masz jeszcze przekonwertowanego modelu, możesz poeksperymentować z modelem dostarczonym z przykładem, do którego link znajduje się poniżej).
Informacje o pakiecie wykonawczym TensorFlow Lite
Aby szybko rozpocząć wykonywanie modeli TensorFlow Lite za pomocą Pythona, możesz zainstalować tylko interpreter TensorFlow Lite, zamiast wszystkich pakietów TensorFlow. Ten uproszczony pakiet Pythona tflite_runtime
.
Pakiet tflite_runtime
jest ułamkiem rozmiaru pełnego pakietu tensorflow
i zawiera minimum kodu wymaganego do uruchomienia wnioskowania za pomocą TensorFlow Lite — przede wszystkim klasę Interpreter
Python. Ten mały pakiet jest idealny, gdy wszystko, co chcesz zrobić, to uruchomić modele .tflite
i uniknąć marnowania miejsca na dysku dzięki dużej bibliotece TensorFlow.
Zainstaluj TensorFlow Lite dla Pythona
Możesz zainstalować na Linuksie za pomocą pip:
python3 -m pip install tflite-runtime
Obsługiwane platformy
Koła Pythona tflite-runtime
są wstępnie zbudowane i dostarczane dla tych platform:
- Linux armv7l (np. Raspberry Pi 2, 3, 4 i Zero 2 z 32-bitowym systemem Raspberry Pi OS)
- Linux aarch64 (np. Raspberry Pi 3, 4 z systemem Debian ARM64)
- Linux x86_64
Jeśli chcesz uruchomić modele TensorFlow Lite na innych platformach, powinieneś użyć pełnego pakietu TensorFlow lub zbudować pakiet tflite-runtime ze źródła .
Jeśli używasz TensorFlow z Coral Edge TPU, powinieneś zamiast tego postępować zgodnie z odpowiednią dokumentacją konfiguracji Coral .
Uruchom wnioskowanie za pomocą tflite_runtime
Zamiast importować Interpreter
z modułu tensorflow
, musisz teraz zaimportować go z tflite_runtime
.
Na przykład po zainstalowaniu powyższego pakietu skopiuj i uruchom plik label_image.py
. To (prawdopodobnie) się nie powiedzie, ponieważ nie masz zainstalowanej biblioteki tensorflow
. Aby to naprawić, edytuj ten wiersz pliku:
import tensorflow as tf
Więc zamiast tego brzmi:
import tflite_runtime.interpreter as tflite
A potem zmień tę linię:
interpreter = tf.lite.Interpreter(model_path=args.model_file)
Czyli brzmi:
interpreter = tflite.Interpreter(model_path=args.model_file)
Teraz ponownie uruchom label_image.py
. Otóż to! Wykonujesz teraz modele TensorFlow Lite.
Ucz się więcej
Aby uzyskać więcej informacji na temat interfejsu API
Interpreter
, przeczytaj Załaduj i uruchom model w języku Python .Jeśli masz Raspberry Pi, obejrzyj serię filmów o tym, jak uruchomić wykrywanie obiektów na Raspberry Pi za pomocą TensorFlow Lite.
Jeśli używasz akceleratora Coral ML, zapoznaj się z przykładami Coral w witrynie GitHub .
Aby przekonwertować inne modele TensorFlow na TensorFlow Lite, przeczytaj o konwerterze TensorFlow Lite .
Jeśli chcesz zbudować koło
tflite_runtime
, przeczytaj Build TensorFlow Lite Python Wheel Package
Używanie TensorFlow Lite z Pythonem jest świetne w przypadku urządzeń wbudowanych opartych na systemie Linux, takich jak urządzenia Raspberry Pi i Coral z Edge TPU , i wiele innych.
Ta strona pokazuje, jak w kilka minut można zacząć uruchamiać modele TensorFlow Lite w Pythonie. Wszystko czego potrzebujesz to model TensorFlow przekonwertowany na TensorFlow Lite . (Jeśli nie masz jeszcze przekonwertowanego modelu, możesz poeksperymentować z modelem dostarczonym z przykładem, do którego link znajduje się poniżej).
Informacje o pakiecie wykonawczym TensorFlow Lite
Aby szybko rozpocząć wykonywanie modeli TensorFlow Lite za pomocą Pythona, możesz zainstalować tylko interpreter TensorFlow Lite, zamiast wszystkich pakietów TensorFlow. Ten uproszczony pakiet Pythona tflite_runtime
.
Pakiet tflite_runtime
jest ułamkiem rozmiaru pełnego pakietu tensorflow
i zawiera minimum kodu wymaganego do uruchomienia wnioskowania za pomocą TensorFlow Lite — przede wszystkim klasę Interpreter
Python. Ten mały pakiet jest idealny, gdy wszystko, co chcesz zrobić, to uruchomić modele .tflite
i uniknąć marnowania miejsca na dysku dzięki dużej bibliotece TensorFlow.
Zainstaluj TensorFlow Lite dla Pythona
Możesz zainstalować na Linuksie za pomocą pip:
python3 -m pip install tflite-runtime
Obsługiwane platformy
Koła Pythona tflite-runtime
są wstępnie zbudowane i dostarczane dla tych platform:
- Linux armv7l (np. Raspberry Pi 2, 3, 4 i Zero 2 z 32-bitowym systemem Raspberry Pi OS)
- Linux aarch64 (np. Raspberry Pi 3, 4 z systemem Debian ARM64)
- Linux x86_64
Jeśli chcesz uruchomić modele TensorFlow Lite na innych platformach, powinieneś użyć pełnego pakietu TensorFlow lub zbudować pakiet tflite-runtime ze źródła .
Jeśli używasz TensorFlow z Coral Edge TPU, powinieneś zamiast tego postępować zgodnie z odpowiednią dokumentacją konfiguracji Coral .
Uruchom wnioskowanie za pomocą tflite_runtime
Zamiast importować Interpreter
z modułu tensorflow
, musisz teraz zaimportować go z tflite_runtime
.
Na przykład po zainstalowaniu powyższego pakietu skopiuj i uruchom plik label_image.py
. To (prawdopodobnie) się nie powiedzie, ponieważ nie masz zainstalowanej biblioteki tensorflow
. Aby to naprawić, edytuj ten wiersz pliku:
import tensorflow as tf
Więc zamiast tego brzmi:
import tflite_runtime.interpreter as tflite
A potem zmień tę linię:
interpreter = tf.lite.Interpreter(model_path=args.model_file)
Czyli brzmi:
interpreter = tflite.Interpreter(model_path=args.model_file)
Teraz ponownie uruchom label_image.py
. Otóż to! Wykonujesz teraz modele TensorFlow Lite.
Ucz się więcej
Aby uzyskać więcej informacji na temat interfejsu API
Interpreter
, przeczytaj Załaduj i uruchom model w języku Python .Jeśli masz Raspberry Pi, obejrzyj serię filmów o tym, jak uruchomić wykrywanie obiektów na Raspberry Pi za pomocą TensorFlow Lite.
Jeśli używasz akceleratora Coral ML, zapoznaj się z przykładami Coral w witrynie GitHub .
Aby przekonwertować inne modele TensorFlow na TensorFlow Lite, przeczytaj o konwerterze TensorFlow Lite .
Jeśli chcesz zbudować koło
tflite_runtime
, przeczytaj Build TensorFlow Lite Python Wheel Package