PythonでTensorFlowLiteを使用すると、 RaspberryPiやEdgeTPUを備えたCoralデバイスなど、Linuxベースの組み込みデバイスに最適です。
このページでは、PythonでTensorFlowLiteモデルの実行をわずか数分で開始する方法を示します。必要なのは、TensorFlowLiteに変換されたTensorFlowモデルだけです。 (まだモデルを変換していない場合は、以下にリンクされている例で提供されているモデルを使用して実験できます。)
TensorFlowLiteランタイムパッケージについて
PythonでTensorFlowLiteモデルの実行をすばやく開始するには、すべてのTensorFlowパッケージではなく、TensorFlowLiteインタープリターのみをインストールします。この簡略化されたPythonパッケージをtflite_runtime
ます。
tflite_runtime
パッケージは、完全なtensorflow
パッケージの数分の1のサイズであり、TensorFlow Lite(主にInterpreter
Pythonクラス)で推論を実行するために必要な最小限のコードが含まれています。この小さなパッケージは、 .tflite
モデルを実行し、大きなTensorFlowライブラリでディスクスペースを無駄にしないようにする場合に最適です。
TensorFlow Lite forPythonをインストールします
TensorFlow Liteランタイムパッケージをインストールするには、次のコマンドを実行します。
pip3 install --extra-index-url https://google-coral.github.io/py-repo/ tflite_runtime
Raspberry Piを使用している場合、 extra-index-url
オプション( #4011 )の既知の問題が原因で、このコマンドが失敗する可能性があります。したがって、システムに一致するtflite_runtime
ホイールの1つを指定することをお勧めします。たとえば、Raspberry Pi OS 10(Python 3.7を搭載)を実行している場合は、代わりに次のコマンドを使用します。
pip3 install https://github.com/google-coral/pycoral/releases/download/release-frogfish/tflite_runtime-2.5.0-cp37-cp37m-linux_armv7l.whl
tflite_runtimeを使用して推論を実行します
代わりに、インポートのInterpreter
からtensorflow
モジュール、あなたは今からそれをインポートする必要がありtflite_runtime
。
たとえば、上記のパッケージをインストールした後、 label_image.py
ファイルをコピーして実行します。 tensorflow
ライブラリがインストールされていないため、(おそらく)失敗します。これを修正するには、ファイルの次の行を編集します。
import tensorflow as tf
したがって、代わりに次のようになります。
import tflite_runtime.interpreter as tflite
そして、この行を変更します。
interpreter = tf.lite.Interpreter(model_path=args.model_file)
だからそれは読む:
interpreter = tflite.Interpreter(model_path=args.model_file)
ここで、 label_image.py
再度実行します。それでおしまい!これで、TensorFlowLiteモデルを実行しています。
もっと詳しく知る
Interpreter
APIの詳細については、「Pythonでモデルをロードして実行する」をご覧ください。
Raspberry Piを使用している場合は、 classify_picamera.pyの例を試して、PiCameraとTensorFlowLiteで画像分類を実行してください。
Coral MLアクセラレータを使用している場合は、GitHubでCoralの例を確認してください。
他のTensorFlowモデルをTensorFlowLiteに変換するには、 TensorFlow LiteConverterについてお読みください。