TensorFlow Lite

TensorFlow Lite adalah seperangkat alat yang memungkinkan pembelajaran mesin di perangkat dengan membantu developer menjalankan model mereka di perangkat seluler, tersemat, dan IoT.

Fitur utama

  • Dioptimalkan untuk pembelajaran mesin di perangkat , dengan mengatasi 5 kendala utama: latensi (tidak ada perjalanan bolak-balik ke server), privasi (tidak ada data pribadi yang meninggalkan perangkat), konektivitas (konektivitas internet tidak diperlukan), ukuran (model yang diperkecil dan ukuran biner) dan konsumsi daya (inferensi efisien dan kurangnya koneksi jaringan).
  • Dukungan berbagai platform , mencakup perangkat Android dan iOS , Linux tersemat , dan mikrokontroler .
  • Dukungan bahasa yang beragam , yang mencakup Java, Swift, Objective-C, C ++, dan Python.
  • Performa tinggi , dengan akselerasi perangkat keras dan pengoptimalan model .
  • Contoh ujung-ke-ujung , untuk tugas-tugas pembelajaran mesin umum seperti klasifikasi gambar, deteksi objek, estimasi pose, menjawab pertanyaan, klasifikasi teks, dll. Pada berbagai platform.

Alur kerja pengembangan

Panduan berikut memandu melalui setiap langkah alur kerja dan menyediakan link ke instruksi lebih lanjut:

1. Buat model TensorFlow Lite

Model TensorFlow Lite direpresentasikan dalam format portabel efisien khusus yang dikenal sebagai FlatBuffers (diidentifikasi dengan ekstensi file .tflite ). Hal ini memberikan beberapa keunggulan dibandingkan format model buffer protokol TensorFlow seperti ukuran yang diperkecil (footprint kode kecil) dan inferensi yang lebih cepat (data diakses langsung tanpa langkah penguraian / pembongkaran tambahan) yang memungkinkan TensorFlow Lite untuk dieksekusi secara efisien pada perangkat dengan sumber daya komputasi dan memori yang terbatas .

Model TensorFlow Lite secara opsional dapat menyertakan metadata yang memiliki deskripsi model yang dapat dibaca manusia dan data yang dapat dibaca mesin untuk pembuatan otomatis pipeline pra dan pasca-pemrosesan selama inferensi pada perangkat. Lihat Tambahkan metadata untuk lebih jelasnya.

Anda dapat membuat model TensorFlow Lite dengan cara berikut:

  • Gunakan model TensorFlow Lite yang sudah ada: Lihat Contoh TensorFlow Lite untuk memilih model yang ada. Model mungkin berisi metadata atau tidak.

  • Membuat model TensorFlow Lite: Gunakan TensorFlow Lite Model Maker untuk membuat model dengan set data kustom Anda sendiri. Secara default, semua model berisi metadata.

  • Mengonversi model TensorFlow menjadi model TensorFlow Lite: Gunakan TensorFlow Lite Converter untuk mengonversi model TensorFlow menjadi model TensorFlow Lite. Selama konversi, Anda dapat menerapkan pengoptimalan seperti kuantisasi untuk mengurangi ukuran model dan latensi dengan sedikit atau tanpa kehilangan akurasi. Secara default, semua model tidak berisi metadata.

2. Jalankan Inferensi

Inferensi mengacu pada proses mengeksekusi model TensorFlow Lite di perangkat untuk membuat prediksi berdasarkan data masukan. Anda dapat menjalankan inferensi dengan cara berikut berdasarkan jenis model:

Di perangkat Android dan iOS, Anda dapat meningkatkan kinerja menggunakan akselerasi perangkat keras. Di kedua platform, Anda dapat menggunakan Delegasi GPU , di android Anda dapat menggunakan Delegasi NNAPI (untuk perangkat yang lebih baru) atau Delegasi Hexagon (di perangkat yang lebih lama) dan di iOS Anda dapat menggunakan Delegasi Core ML . Untuk menambahkan dukungan untuk akselerator perangkat keras baru, Anda dapat menentukan delegasi Anda sendiri .

Memulai

Anda dapat merujuk ke panduan berikut berdasarkan perangkat target Anda:

Kendala teknis

  • Semua model TensorFlow tidak dapat diubah menjadi model TensorFlow Lite , lihat Kompatibilitas Operator .

  • Pelatihan di perangkat tidak didukung , namun itu ada di Roadmap kami.