このページは Cloud Translation API によって翻訳されました。
Switch to English

Pythonクイックスタート

PythonでTensorFlowLiteを使用すると、 RaspberryPiやEdgeTPUを備えたCoralデバイスなど、Linuxベースの組み込みデバイスに最適です。

このページでは、PythonでTensorFlowLiteモデルの実行をわずか数分で開始する方法を示します。必要なのは、TensorFlowLiteに変換されたTensorFlowモデルだけです。 (まだモデルを変換していない場合は、以下にリンクされている例で提供されているモデルを使用して実験できます。)

TensorFlowLiteランタイムパッケージについて

PythonでTensorFlowLiteモデルの実行をすばやく開始するには、すべてのTensorFlowパッケージではなく、TensorFlowLiteインタープリターのみをインストールします。この簡略化されたPythonパッケージをtflite_runtimeます。

tflite_runtimeパッケージは、完全なtensorflowパッケージの数分の1のサイズであり、TensorFlow Lite(主にInterpreter Pythonクラス)で推論を実行するために必要な最小限のコードが含まれています。この小さなパッケージは、 .tfliteモデルを実行し、大きなTensorFlowライブラリでディスクスペースを無駄にしないようにする場合に最適です。

TensorFlow Lite forPythonをインストールします

TensorFlow Liteランタイムパッケージをインストールするには、次のコマンドを実行します。

pip3 install --extra-index-url https://google-coral.github.io/py-repo/ tflite_runtime

Raspberry Piを使用している場合、 extra-index-urlオプション( #4011 )の既知の問題が原因で、このコマンドが失敗する可能性があります。したがって、システムに一致するtflite_runtimeホイールの1つを指定することをお勧めします。たとえば、Raspberry Pi OS 10(Python 3.7を搭載)を実行している場合は、代わりに次のコマンドを使用します。

pip3 install https://github.com/google-coral/pycoral/releases/download/release-frogfish/tflite_runtime-2.5.0-cp37-cp37m-linux_armv7l.whl

tflite_runtimeを使用して推論を実行します

代わりに、インポートのInterpreterからtensorflowモジュール、あなたは今からそれをインポートする必要がありtflite_runtime

たとえば、上記のパッケージをインストールした後、 label_image.pyファイルをコピーして実行します。 tensorflowライブラリがインストールされていないため、(おそらく)失敗します。これを修正するには、ファイルの次の行を編集します。

import tensorflow as tf

したがって、代わりに次のようになります。

import tflite_runtime.interpreter as tflite

そして、この行を変更します。

interpreter = tf.lite.Interpreter(model_path=args.model_file)

だからそれは読む:

interpreter = tflite.Interpreter(model_path=args.model_file)

ここで、 label_image.py再度実行します。それでおしまい!これで、TensorFlowLiteモデルを実行しています。

もっと詳しく知る

Interpreter APIの詳細については、「Pythonでモデルをロードして実行する」をご覧ください。

Raspberry Piを使用している場合は、 classify_picamera.pyの例を試して、PiCameraとTensorFlowLiteで画像分類を実行してください。

Coral MLアクセラレータを使用している場合は、GitHubでCoralの例を確認してください。

他のTensorFlowモデルをTensorFlowLiteに変換するには、 TensorFlow LiteConverterについてお読みください。