Bergabunglah dengan TensorFlow di Google I/O, 11-12 Mei Daftar sekarang

TensorFlow Lite

TensorFlow Lite adalah seperangkat alat yang memungkinkan pembelajaran mesin di perangkat dengan membantu pengembang menjalankan model mereka di perangkat seluler, tersemat, dan edge.

Fitur utama

  • Dioptimalkan untuk pembelajaran mesin di perangkat , dengan mengatasi 5 kendala utama: latensi (tidak ada bolak-balik ke server), privasi (tidak ada data pribadi yang keluar dari perangkat), konektivitas (konektivitas internet tidak diperlukan), ukuran (model yang dikurangi dan ukuran biner) dan konsumsi daya (inferensi yang efisien dan kurangnya koneksi jaringan).
  • Dukungan berbagai platform , mencakup perangkat Android dan iOS , Linux tertanam , dan mikrokontroler .
  • Dukungan bahasa yang beragam , yang meliputi Java, Swift, Objective-C, C++, dan Python.
  • Performa tinggi , dengan akselerasi perangkat keras dan optimalisasi model .
  • Contoh ujung ke ujung , untuk tugas pembelajaran mesin umum seperti klasifikasi gambar, deteksi objek, estimasi pose, menjawab pertanyaan, klasifikasi teks, dll. di berbagai platform.

Alur kerja pengembangan

Panduan berikut menjelaskan setiap langkah alur kerja dan menyediakan tautan ke instruksi lebih lanjut:

1. Buat model TensorFlow Lite

Model TensorFlow Lite direpresentasikan dalam format portabel efisien khusus yang dikenal sebagai FlatBuffers (diidentifikasi dengan ekstensi file .tflite ). Ini memberikan beberapa keunggulan dibandingkan format model buffering protokol TensorFlow seperti ukuran yang diperkecil (jejak kode kecil) dan inferensi yang lebih cepat (data diakses langsung tanpa langkah penguraian/pembongkar ekstra) yang memungkinkan TensorFlow Lite untuk mengeksekusi secara efisien pada perangkat dengan sumber daya komputasi dan memori yang terbatas .

Model TensorFlow Lite dapat secara opsional menyertakan metadata yang memiliki deskripsi model yang dapat dibaca manusia dan data yang dapat dibaca mesin untuk pembuatan otomatis pipeline pra dan pasca pemrosesan selama inferensi di perangkat. Lihat Menambahkan metadata untuk detail selengkapnya.

Anda dapat membuat model TensorFlow Lite dengan cara berikut:

  • Menggunakan model TensorFlow Lite yang ada: Lihat Contoh TensorFlow Lite untuk memilih model yang ada. Model mungkin atau mungkin tidak mengandung metadata.

  • Membuat model TensorFlow Lite: Gunakan Pembuat Model TensorFlow Lite untuk membuat model dengan kumpulan data kustom Anda sendiri. Secara default, semua model berisi metadata.

  • Mengonversi model TensorFlow menjadi model TensorFlow Lite: Gunakan TensorFlow Lite Converter untuk mengonversi model TensorFlow menjadi model TensorFlow Lite. Selama konversi, Anda dapat menerapkan pengoptimalan seperti kuantisasi untuk mengurangi ukuran dan latensi model dengan sedikit atau tanpa kehilangan akurasi. Secara default, semua model tidak berisi metadata.

2. Jalankan Inferensi

Inferensi mengacu pada proses mengeksekusi model TensorFlow Lite di perangkat untuk membuat prediksi berdasarkan data masukan. Anda dapat menjalankan inferensi dengan cara berikut berdasarkan tipe model:

Pada perangkat Android dan iOS, Anda dapat meningkatkan kinerja menggunakan akselerasi perangkat keras. Di kedua platform, Anda dapat menggunakan GPU Delegate , di android Anda dapat menggunakan NNAPI Delegate (untuk perangkat yang lebih baru) atau Hexagon Delegate (pada perangkat yang lebih lama) dan di iOS Anda dapat menggunakan Core ML Delegate . Untuk menambahkan dukungan untuk akselerator perangkat keras baru, Anda dapat menentukan delegasi Anda sendiri .

Memulai

Anda dapat merujuk ke panduan berikut berdasarkan perangkat target Anda:

Kendala teknis

  • Semua model TensorFlow tidak dapat diubah menjadi model TensorFlow Lite , lihat kompatibilitas Operator .

  • Pelatihan di perangkat tidak didukung , namun ada di Peta Jalan kami .