機械学習モデルをモバイル デバイスや IoT デバイスにデプロイします

TensorFlow Lite は、デバイス上での推論を可能にする、オープンソースのディープ ラーニング フレームワークです。

ガイドを見る

TensorFlow Lite の概念およびコンポーネントについて説明するガイドです。

例を見る

TensorFlow Lite を使用している Android アプリおよび iOS アプリをご紹介します。

モデルを見る

事前トレーニング済みのモデルを簡単にデプロイできます。

仕組み

モデルの選択

新しいモデルを選ぶか、既存のモデルを再トレーニングします。

変換

TensorFlow Lite コンバータを使って、TensorFlow モデルを圧縮された FlatBuffer に変換します。

デプロイ

圧縮された .tflite ファイルを、モバイル デバイスまたは組み込みデバイスに読み込みます。

最適化

32 ビット浮動小数点数をより効率的な 8 ビット整数に変換することによって量子化するか、または GPU で実行します。

よくある問題への解決策

モバイル デバイスやエッジデバイスの一般的なユースケースに最適化されたモデルをご利用ください。

画像分類

人、動き、動物、植物、場所など、何百ものオブジェクトを識別します。

オブジェクト検出

境界ボックスで複数のオブジェクトを検出します。もちろん、イヌやネコも検出できます。

スマート リプライ

会話型チャット メッセージを入力するための返信候補を生成します。

ニュースとお知らせ

その他の最新情報については、ブログをご覧ください。また、最新のお知らせを毎月メールボックスに直接お届けする TensorFlow ニュースレターにご登録ください。

2020 年 4 月 8 日 
TensorFlow 用の Model Optimization Toolkit を使用した量子化認識トレーニング

QAT を使用すると、元の精度に近いまま、量子化のパフォーマンスとサイズの利点を備えたモデルをトレーニングし、デプロイできます。

2020 年 4 月 2 日 
TensorFlow Lite Core ML デリゲートにより、iPhone と iPad での推論を高速化

Apple の Core ML API を使用して、Neural Engine で浮動小数点モデルをより高速に実行する新しい TensorFlow Lite デリゲートのご案内。

2020 年 3 月 13 日 
TensorFlow Lite: モバイル デバイスおよび IoT デバイス向け ML(TF Dev Summit '20)

現在、数十億の本番環境デバイスにデプロイされている TFLite についての新しいお知らせをご覧ください。

Continue