Halaman ini diterjemahkan oleh Cloud Translation API.
Switch to English

Panduan TensorFlow Lite

TensorFlow Lite adalah seperangkat alat untuk membantu developer menjalankan model TensorFlow di perangkat seluler, tersemat, dan IoT. Ini memungkinkan inferensi pembelajaran mesin di perangkat dengan latensi rendah dan ukuran biner kecil.

TensorFlow Lite terdiri dari dua komponen utama:

  • Penafsir TensorFlow Lite , yang menjalankan model yang dioptimalkan secara khusus pada berbagai jenis perangkat keras, termasuk ponsel, perangkat Linux tersemat, dan mikrokontroler.
  • Konverter TensorFlow Lite , yang mengonversi model TensorFlow menjadi bentuk yang efisien untuk digunakan oleh penerjemah, dan dapat memperkenalkan pengoptimalan untuk meningkatkan ukuran dan kinerja biner.

Pembelajaran mesin di edge

TensorFlow Lite dirancang untuk memudahkan melakukan pembelajaran mesin pada perangkat, "di tepi" jaringan, daripada mengirim data bolak-balik dari server. Untuk developer, melakukan pembelajaran mesin di perangkat dapat membantu meningkatkan:

  • Latensi: tidak ada perjalanan bolak-balik ke server
  • Privasi: tidak ada data yang perlu keluar dari perangkat
  • Konektivitas: koneksi internet tidak diperlukan
  • Konsumsi daya: koneksi jaringan haus daya

TensorFlow Lite berfungsi dengan berbagai macam perangkat, mulai dari mikrokontroler kecil hingga ponsel yang kuat.

Memulai

Untuk mulai bekerja dengan TensorFlow Lite di perangkat seluler, kunjungi Memulai . Jika Anda ingin menerapkan model TensorFlow Lite ke mikrokontroler, kunjungi Mikrokontroler .

Fitur utama

  • Penerjemah yang disesuaikan untuk ML di perangkat , mendukung sekumpulan operator inti yang dioptimalkan untuk aplikasi di perangkat, dan dengan ukuran biner kecil.
  • Dukungan platform yang beragam , mencakup perangkat Android dan iOS , Linux yang disematkan, dan mikrokontroler, menggunakan API platform untuk inferensi yang dipercepat.
  • API untuk berbagai bahasa termasuk Java, Swift, Objective-C, C ++, dan Python.
  • Performa tinggi , dengan akselerasi hardware pada perangkat yang didukung, kernel yang dioptimalkan untuk perangkat, serta aktivasi dan bias yang telah digabungkan sebelumnya .
  • Alat pengoptimalan model , termasuk kuantisasi , yang dapat mengurangi ukuran dan meningkatkan performa model tanpa mengorbankan akurasi.
  • Format model yang efisien , menggunakan FlatBuffer yang dioptimalkan untuk ukuran kecil dan portabilitas.
  • Model terlatih untuk tugas pembelajaran mesin umum yang dapat disesuaikan dengan aplikasi Anda.
  • Contoh dan tutorial yang menunjukkan cara menerapkan model pembelajaran mesin pada platform yang didukung.

Alur kerja pengembangan

Alur kerja untuk menggunakan TensorFlow Lite melibatkan langkah-langkah berikut:

  1. Pilih model

    Bawa model TensorFlow Anda sendiri, temukan model secara online, atau pilih model dari model Terlatih kami untuk dimasukkan atau dilatih ulang .

  2. Ubah modelnya

    Jika Anda menggunakan model kustom, gunakan konverter TensorFlow Lite dan beberapa baris Python untuk mengubahnya menjadi format TensorFlow Lite.

  3. Terapkan ke perangkat Anda

    Jalankan model Anda di perangkat dengan interpreter TensorFlow Lite , dengan API dalam banyak bahasa.

  4. Optimalkan model Anda

    Gunakan Model Optimization Toolkit kami untuk mengurangi ukuran model Anda dan meningkatkan efisiensinya dengan dampak minimal pada keakuratan.

Untuk mempelajari lebih lanjut tentang menggunakan TensorFlow Lite dalam project Anda, lihat Memulai .

Kendala teknis

TensorFlow Lite berencana memberikan inferensi pada perangkat berperforma tinggi untuk model TensorFlow apa pun. Namun, interpreter TensorFlow Lite saat ini mendukung subset terbatas operator TensorFlow yang telah dioptimalkan untuk penggunaan di perangkat. Artinya, beberapa model memerlukan langkah tambahan untuk bekerja dengan TensorFlow Lite.

Untuk mempelajari operator mana yang tersedia, lihat Kompatibilitas operator .

Jika model Anda menggunakan operator yang belum didukung oleh interpreter TensorFlow Lite, Anda dapat menggunakan TensorFlow Select untuk menyertakan operasi TensorFlow dalam build TensorFlow Lite Anda. Namun, ini akan menyebabkan peningkatan ukuran biner.

TensorFlow Lite saat ini tidak mendukung pelatihan di perangkat, tetapi sudah ada di Roadmap kami, bersama dengan peningkatan terencana lainnya.

Langkah selanjutnya

Ingin terus belajar tentang TensorFlow Lite? Berikut beberapa langkah selanjutnya: