機械学習モデルをモバイル デバイスや IoT デバイスにデプロイします

TensorFlow Lite は、デバイス上での推論を可能にする、オープンソースのディープ ラーニング フレームワークです。

ガイドを見る

TensorFlow Lite の概念およびコンポーネントについて説明するガイドです。

例を見る

TensorFlow Lite を使用している Android アプリおよび iOS アプリをご紹介します。

モデルを見る

事前トレーニング済みのモデルを簡単にデプロイできます。

仕組み

モデルの選択

新しいモデルを選ぶか、既存のモデルを再トレーニングします。

変換

TensorFlow Lite コンバータを使って、TensorFlow モデルを圧縮された FlatBuffer に変換します。

デプロイ

圧縮された .tflite ファイルを、モバイル デバイスまたは組み込みデバイスに読み込みます。

最適化

32 ビット浮動小数点数をより効率的な 8 ビット整数に変換することによって量子化するか、または GPU で実行します。

よくある問題への解決策

モバイル デバイスやエッジデバイスの一般的なユースケースに最適化されたモデルをご利用ください。

画像分類

人、動き、動物、植物、場所など、何百ものオブジェクトを識別します。

オブジェクト検出

境界ボックスで複数のオブジェクトを検出します。もちろん、イヌやネコも検出できます。

質問への回答

BERT で最新の自然言語モデルを使用して、特定の文章の内容に基づいて質問に回答します。

ニュースとお知らせ

その他の最新情報については、ブログをご覧ください。また、最新のお知らせを毎月メールボックスに直接お届けする TensorFlow ニュースレターにご登録ください。

2020 年 7 月 13 日  
Google I/O において TF Lite を使用してビルドした自動運転車のデモ Pixelopolis の紹介

スマートフォンのカメラと TensorFlow とちょっとした想像力があれば、驚くようなことが可能です。

2020 年 7 月 8 日  
TensorFlow の詳細: 新しい TF Lite コンバータ

「TensorFlow の詳細」のこちらのエピソードでは、ソフトウェア エンジニアである Yu-Cheng Ling が、新しい TF Lite コンバータのデモを行いつつ、重要性と使用方法について説明します。

Continue
2020 年 6 月 26 日  
Firebase を使用して TensorFlow Lite のデプロイを強化

Firebase を使用してアプリをアップデートせずに TensorFlow Lite モデルをアップデートし、本番環境で複数のモデル バージョンに対して A/B テストを行い、ユーザー デバイスで推論速度を測定します。

2020 年 4 月 20 日  
DevSummit 2020 で紹介した TensorFlow Lite の新機能

TensorFlow Lite は世界中の 40 億台を超えるアクティブなデバイス上のさまざまなプラットフォームで使用されています。より速く、より使いやすい機械学習を実現することで、デバイス上の機械学習の限界を引き続き広げてまいります。