TensorFlowLiteモデルメーカー

コレクションでコンテンツを整理 必要に応じて、コンテンツの保存と分類を行います。

概要

TensorFlow Liteモデルメーカーライブラリは、カスタムデータセットを使用してTensorFlowLiteモデルをトレーニングするプロセスを簡素化します。転移学習を使用して、必要なトレーニングデータの量を減らし、トレーニング時間を短縮します。

サポートされているタスク

モデルメーカーライブラリは現在、次のMLタスクをサポートしています。モデルのトレーニング方法のガイドについては、以下のリンクをクリックしてください。

サポートされているタスクタスクユーティリティ
画像分類:チュートリアルAPI画像を事前定義されたカテゴリに分類します。
オブジェクト検出:チュートリアルAPIリアルタイムでオブジェクトを検出します。
テキスト分類:チュートリアルAPIテキストを事前定義されたカテゴリに分類します。
BERT質問回答:チュートリアルAPI BERTを使用して、特定の質問に対する特定のコンテキストでの回答を見つけます。
オーディオ分類:チュートリアルAPIオーディオを事前定義されたカテゴリに分類します。
推奨事項:デモAPIデバイス上のシナリオのコンテキスト情報に基づいてアイテムを推奨します。
サーチャー:チュートリアルAPIデータベースで類似のテキストまたは画像を検索します。

タスクがサポートされていない場合は、最初にTensorFlowを使用してTensorFlowモデルを転送学習(画像テキストオーディオなどのガイドに従う)で再トレーニングするか、最初からトレーニングしてから、TensorFlowLiteモデルに変換してください。

エンドツーエンドの例

Model Makerを使用すると、わずか数行のコードでカスタムデータセットを使用してTensorFlowLiteモデルをトレーニングできます。たとえば、画像分類モデルをトレーニングする手順は次のとおりです。

from tflite_model_maker import image_classifier
from tflite_model_maker.image_classifier import DataLoader

# Load input data specific to an on-device ML app.
data = DataLoader.from_folder('flower_photos/')
train_data, test_data = data.split(0.9)

# Customize the TensorFlow model.
model = image_classifier.create(train_data)

# Evaluate the model.
loss, accuracy = model.evaluate(test_data)

# Export to Tensorflow Lite model and label file in `export_dir`.
model.export(export_dir='/tmp/')

詳細については、画像分類ガイドを参照してください。

インストール

ModelMakerをインストールするには2つの方法があります。

  • ビルド済みのpipパッケージをインストールします。
pip install tflite-model-maker

ナイトリーバージョンをインストールする場合は、次のコマンドに従ってください。

pip install tflite-model-maker-nightly
  • GitHubからソースコードを複製してインストールします。
git clone https://github.com/tensorflow/examples
cd examples/tensorflow_examples/lite/model_maker/pip_package
pip install -e .

TensorFlow Lite Model Makerは、TensorFlowpipパッケージに依存しています。 GPUドライバーについては、TensorFlowのGPUガイドまたはインストールガイドを参照してください。

PythonAPIリファレンス

ModelMakerのパブリックAPIはAPIリファレンスで確認できます。