TensorFlow Lite は、デバイス上で TensorFlow モデルを実行するためのオープンソースのディープ ラーニング フレームワークです。TensorFlow Lite を初めて使用する場合は、まず事前トレーニング済みモデルを試し、実際のデバイスで以下のサンプルアプリを実行して、TensorFlow Lite で何ができるかを確認することをおすすめします。
MobileNet モデルを使用して、カメラフィードからリアルタイムでオブジェクトを検出します。
MobileBERT モデルを使用して、特定のテキストに関連する質問に回答します。
機械学習や TensorFlow についてあまり経験がないモバイル デベロッパーの方は、TensorFlow Lite Model Maker を使用してモデルをトレーニングし、モバイルアプリにデプロイする方法から学び始めることができます。
Android 用のクイック スタート チュートリアル。花の分類モデルをトレーニングし、Android アプリにデプロイします。
iOS 用のクイック スタート チュートリアル。花の分類モデルをトレーニングし、iOS アプリにデプロイします。
すでに TensorFlow についてはよく把握していて、エッジデバイスへのデプロイ方法を知りたい場合は、以下のチュートリアルから始めます。TensorFlow モデルを TensorFlow Lite 形式に変換し、デバイス上での推論用に最適化する方法を学べます。
TensorFlow モデルの変換と最適化を行って Android アプリにデプロイし、デバイス上で推論を行う方法を学べるエンドツーエンドのクイック スタート チュートリアルです。
TensorFlow Lite Model Maker を使用して画像分類モデルを迅速に作成する方法を学びます。
TensorFlow モデルを Linux ベースの IoT デバイス(Raspberry Pi など)にデプロイする場合は、IoT デバイスへのコンピュータ ビジョン タスクの実装方法に関する以下のチュートリアルをご覧ください。
Pi Camera からストリーミングされる画像を使用して、リアルタイムで画像分類を行います。
Pi Camera からストリーミングされる画像を使用して、リアルタイムでオブジェクト検出を行います。
リソースの制約が大きいマイクロコントローラに TensorFlow モデルをデプロイする場合は、以下のチュートリアルから始めることができます。TensorFlow モデルの開発に始まり、それを TensorFlow Lite 形式に変換して、TensorFlow Lite Micro 搭載のマイクロコントローラにデプロイするまでのワークフローをひととおり学べます。
単純な起動ワードを検出できる数ワードの音声のモデルをトレーニングします。
加速度計データを使用してさまざまなジェスチャーを認識できるモデルをトレーニングします。

TensorFlow モデルのトレーニング、TensorFlow Lite 形式への変換、モバイルアプリへのデプロイをするというワークフローを学んだ後は、以下の資料で TensorFlow Lite の詳細を学習できます。

  • 左のナビゲーション バーからさまざまな分野のチュートリアル(ビジョンや音声認識など)をお試しください。具体的な機械学習タスク(オブジェクト検出感情分析など)のモデルをトレーニングする方法を確認できます。
  • 開発ワークフローの詳細については、TensorFlow Lite ガイドをご覧ください。 モデル変換モデル最適化など、TensorFlow Lite の機能に関する詳細情報を確認できます。
  • TensorFlow Lite についての無料の e ラーニング コースをご利用ください。

TensorFlow のブログYouTube チャンネルTwitter に登録して、最新の情報をご確認ください。