TensorFlow 2.0 Beta is available Learn more
機械学習モデルをモバイル デバイスや IoT デバイスにデプロイします

TensorFlow Lite は、デバイス上での推論を可能にする、オープンソースのディープ ラーニング フレームワークです。

ガイドを見る

TensorFlow Lite の概念およびコンポーネントについて説明するガイドです。

例を見る

TensorFlow Lite を使用している Android アプリおよび iOS アプリをご紹介します。

モデルを見る

事前トレーニング済みのモデルを簡単にデプロイできます。

仕組み
モデルの選択

新しいモデルを選ぶか、既存のモデルを再トレーニングします。

変換

TensorFlow Lite コンバータを使って、TensorFlow モデルを圧縮された FlatBuffer に変換します。

デプロイ

圧縮された .tflite ファイルを、モバイル デバイスまたは組み込みデバイスに読み込みます。

最適化

32 ビット浮動小数点数をより効率的な 8 ビット整数に変換することによって量子化するか、または GPU で実行します。

よくある問題への解決策

モバイル デバイスやエッジデバイスの一般的なユースケースに最適化されたモデルをご利用ください。

画像分類

人、動き、動物、植物、場所など、何百ものオブジェクトを識別します。

オブジェクト検出

境界ボックスで複数のオブジェクトを検出します。もちろん、イヌやネコも検出できます。

スマート リプライ

会話型チャット メッセージを入力するための返信候補を生成します。

コミュニティへの参加

TensorFlow コミュニティに参加する方法はたくさんあります。

GitHub の TensorFlow Lite 
Stack Overflow で質問する 
コミュニティのディスカッション フォーラム 
TensorFlow Lite の活用例を共有する
ニュースとお知らせ
June 11, 2019 
TensorFlow Integer Quantization

Integer quantization is a new addition to the TensorFlow Model Optimization Toolkit. It is a general technique that reduces the numerical precision of the weights and activations of models to reduce memory and improve latency.

May 14, 2019 
TensorFlow Pruning API

Weight pruning, a new addition to the TensorFlow Model Optimization toolkit, aims to reduce the number of parameters and operations involved in the computation by removing connections, and thus parameters, in between neural network layers.

May 8, 2019 
TensorFlow Lite at Google I/O'19

In this video, you'll learn how to build AI into any device using TensorFlow Lite, and learn about the future of on-device ML and our roadmap. You’ll also discover a library of pretrained models that are ready to use in your apps or to be customized for your needs.

2019 年 1 月 16 日 
モバイル GPU でさらに高速になった TensorFlow Lite(デベロッパー プレビュー)

GPU で推論を実行すると、Pixel 3 では処理速度が最大 4 倍向上します。