マイクロコントローラを使ってみる

このドキュメントは、マイクロコントローラを使用してモデルをトレーニングし、推論を実行する方法について説明します。

Hello World の例

Hello World の例は、マイクロコントローラ向け TensorFlow Lite を使用するための基本を説明するためのものです。サイン関数を複製するモデルをトレーニングして実行します。つまり、単一の数値を入力として受け取り、その数値のサイン値を出力します。マイクロコントローラにデプロイされると、その予測は LED を点滅させるか、アニメーションを制御するために使用されます。

エンドツーエンドのワークフローには、次の手順が含まれます。

  1. モデルをトレーニングする (Python): デバイス上で使用するためにモデルをトレーニング、変換、最適化するための jupyter ノートブック。
  2. 推論を実行する (C++ 11): C++ライブラリを使用してモデルで推論を実行するエンドツーエンドの単体テスト。

サポートされているデバイスを入手する

使用するサンプルアプリケーションは、次のデバイスでテストされています。

サポートされているプラットフォームの詳細については、マイクロコントローラ向け TensorFlow Lite をご覧ください。

モデルをトレーニングする

注:このセクションをスキップして、サンプルコードに含まれているトレーニング済みモデルを使用することもできます。

Google Colaboratory を使用して、独自のモデルをトレーニングします。 詳細については、README.mdを参照してください。

Hello World Training README.md

推論を実行する

デバイスでモデルを実行するために、README.mdの手順を説明します。

Hello World README.md

以下のセクションは Hello World サンプルの hello_world_test.ccを見ていきます。 この単体テストでは、マイクロコントローラ向け TensorFlow Liteを使って推論を実行する方法を実演します。モデルを読み込み、推論を数回実行します。

1. ライブラリをインクルードする

この例では、モデルは正弦波関数を再現するようにトレーニングされています。1つの数を入力として、正弦波の数値を出力します。マイクロコントローラにデプロイされると、その予測は、LED を点滅させたりアニメーションを制御したりすることに使用されます。

#include "tensorflow/lite/micro/kernels/all_ops_resolver.h"
#include "tensorflow/lite/micro/micro_error_reporter.h"
#include "tensorflow/lite/micro/micro_interpreter.h"
#include "tensorflow/lite/schema/schema_generated.h"
#include "tensorflow/lite/version.h"
  • all_ops_resolver.hモデルを実行するためにインタープリタが使用する演算を提供します。
  • micro_error_reporter.hはデバッグ情報を出力します。
  • micro_interpreter.hにはモデルをロードして実行するためのコードが含まれています。
  • schema_generated.hには、TensorFlow Lite FlatBufferデルファイル形式のスキーマが含まれています。
  • version.hは TensorFlow Lite スキーマのバージョン情報を提供します。

2. モデルヘッダーをインクルードする

マイクロコントローラ向け TensorFlow Lite インタープリタは、モデルがC++配列で提供されることを期待しています。Hellow World サンプルでは、モデルは sine_model_data.hsine_model_data.ccで定義されています。ヘッダーは以下の行で含まれます。

#include "tensorflow/lite/micro/examples/hello_world/sine_model_data.h"

3. 単体テストフレームワークヘッダーをインクルードする

見ていくコードは単体テストで、それはマイクロコントローラ向け TensorFlow Lite フレームワークの単体テストフレームワークを使います。フレームワークを読み込むため、以下のファイルをインクルードします。

#include "tensorflow/lite/micro/testing/micro_test.h"

テストは以下のマクロを使って定義されます。

TF_LITE_MICRO_TESTS_BEGIN

TF_LITE_MICRO_TEST(LoadModelAndPerformInference) {
  . // add code here
  .
}

TF_LITE_MICRO_TESTS_END

コードの残り部分は、モデルの読み込みと推論を実演します。

4. ログ取得を準備する

ログ取得の準備をするために、tflite::MicroErrorReporterインスタンスへのポインタを持つ、tflite::ErrorReporterポインタが作成されます。

tflite::MicroErrorReporter micro_error_reporter;
tflite::ErrorReporter* error_reporter = &micro_error_reporter;

この変数はインタープリタに渡され、ログに書くことを許可します。マイクロコントローラはしばしばログ取得のさまざまな機構をもつので、tflite::MicroErrorReporterの実装は、 デバイス固有にカスタマイズされるように設計されています。

5. モデルを読み込む

以下のコードでは、モデルはchar配列、つまりsine_model_data.hで宣言されたg_sine_model_dataからのデータを使って実体化されます。モデルを検査し、そのスキーマ・バージョンが我々が使用しているバージョンと互換性があることを確認します。

const tflite::Model* model = ::tflite::GetModel(g_model);
if (model->version() != TFLITE_SCHEMA_VERSION) {
  TF_LITE_REPORT_ERROR(error_reporter,
      "Model provided is schema version %d not equal "
      "to supported version %d.\n",
      model->version(), TFLITE_SCHEMA_VERSION);
}

6. 演算子リゾルバを実体化する

AllOpsResolverインスタンスが宣言されています。これは、モデルで使用されている演算にアクセスするためにインタープリタが使います。

tflite::AllOpsResolver resolver;

AllOpsResolverは、マイクロコントローラ向けTensorFlow Lite で利用可能なすべての演算を読み込むため多くのメモリを使用します。通常、モデルが必要とするのはこれらの演算のうちの一部のため、現実世界に適用する際には必要な演算のみを読み込むことが推奨されます。

これは別のクラス、MicroMutableOpResolverを使用して実施されます。 Micro speech micro_speech_test.ccの例で使い方を見ることができます。

7.メモリを割り当てる

適当な量のメモリを入力、出力、そして中間配列に事前に割り当てる必要があります。これは、tensor_arena_sizeの大きさのuint8_t配列として提供されます。

const int tensor_arena_size = 2 * 1024;
uint8_t tensor_arena[tensor_arena_size];

要求される大きさは使用するモデルに依存し、実験によって決める必要があるかもしれません。

8. インタプリタをインスタンス化する

tflite::MicroInterpreterインスタンスを作成し、事前に作成した変数を渡します。

tflite::MicroInterpreter interpreter(model, resolver, tensor_arena,
                                     tensor_arena_size, error_reporter);

9. テンソルを割り当てる

インタープリタに対し、tensor_arenaからモデルのテンソルにメモリを割り当てるように指示します。

interpreter.AllocateTensors();

10. 入力の形状を検証する

MicroInterpreterインスタンスは、.input(0)を呼ぶことで、モデルの入力テンソルへのポインタを提供します。 0は最初の(そして唯一の)入力テンソルであることを表します。

    // Obtain a pointer to the model's input tensor
  TfLiteTensor* input = interpreter.input(0);

このテンソルを検証し、形状と型が期待したものであることを確認します。

// Make sure the input has the properties we expect
TF_LITE_MICRO_EXPECT_NE(nullptr, input);
// The property "dims" tells us the tensor's shape. It has one element for
// each dimension. Our input is a 2D tensor containing 1 element, so "dims"
// should have size 2.
TF_LITE_MICRO_EXPECT_EQ(2, input->dims->size);
// The value of each element gives the length of the corresponding tensor.
// We should expect two single element tensors (one is contained within the
// other).
TF_LITE_MICRO_EXPECT_EQ(1, input->dims->data[0]);
TF_LITE_MICRO_EXPECT_EQ(1, input->dims->data[1]);
// The input is a 32 bit floating point value
TF_LITE_MICRO_EXPECT_EQ(kTfLiteFloat32, input->type);

enum値kTfLiteFloat32は、TensorFlow Lite のデータ型のうちの一つへの参照であり、 common.hで定義されています。

11. 入力値を提供する

入力をモデルに提供するために、入力テンソルの内容を以下のとおり設定します。

input->data.f[0] = 0.;

この場合、0を表す浮動小数点数を入力しています。

12. モデルを実行する

モデルを実行するために、tflite::MicroInterpreterインスタンス上でInvoke()を呼びます。

TfLiteStatus invoke_status = interpreter.Invoke();
if (invoke_status != kTfLiteOk) {
  error_reporter->Report("Invoke failed\n");
}

戻り値TfLiteStatusを確認でき、実行が成功したかどうか決定できます。TfLiteStatusの取りうる値は、common.hで定義されており、 kTfLiteOkkTfLiteError です。

下記コードは値が、推論がうまく実行されたことを意味する、kTfLiteOkであることを知らせています。

TF_LITE_MICRO_EXPECT_EQ(kTfLiteOk, invoke_status);

13. 出力を取得する

モデルの出力テンソルは、tflite::MicroIntepreter上でoutput(0)を呼ぶことで取得できます。0は最初の(そして唯一の)出力テンソルであることを表します。

サンプルでは、モデルの出力は1つの2次元テンソルに含まれる1つの浮動小数点数です。

TfLiteTensor* output = interpreter.output(0);
TF_LITE_MICRO_EXPECT_EQ(2, output->dims->size);
TF_LITE_MICRO_EXPECT_EQ(1, input->dims->data[0]);
TF_LITE_MICRO_EXPECT_EQ(1, input->dims->data[1]);
TF_LITE_MICRO_EXPECT_EQ(kTfLiteFloat32, output->type);

出力テンソルから直接値を読むこともでき、それが期待するものであるか評価することもできます。

// Obtain the output value from the tensor
float value = output->data.f[0];
// Check that the output value is within 0.05 of the expected value
TF_LITE_MICRO_EXPECT_NEAR(0., value, 0.05);

14. 推論を再度実行する

コードの残りの部分は、推論をさらに何回も実行します。インスタンス毎に、入力テンソルに値を割り当て、インタープリタを呼び、そして出力テンソルから結果を読み取ります。

input->data.f[0] = 1.;
interpreter.Invoke();
value = output->data.f[0];
TF_LITE_MICRO_EXPECT_NEAR(0.841, value, 0.05);

input->data.f[0] = 3.;
interpreter.Invoke();
value = output->data.f[0];
TF_LITE_MICRO_EXPECT_NEAR(0.141, value, 0.05);

input->data.f[0] = 5.;
interpreter.Invoke();
value = output->data.f[0];
TF_LITE_MICRO_EXPECT_NEAR(-0.959, value, 0.05);

15. アプリケーションのコードを読む

この単体テストを一度ひととおり読み終えたら、main_functions.ccにあるサンプルアプリケーションのコードを理解できるはずです。 同じような処理を行いますが、実行された推論の数に基づいて入力値を生成し、それからデバイス固有の関数を呼び、モデルの出力をユーザーに表示します。