Bantuan melindungi Great Barrier Reef dengan TensorFlow pada Kaggle Bergabung Tantangan

Mulai cepat Python

Menggunakan TensorFlow Lite dengan Python sangat bagus untuk perangkat embedded berbasis Linux, seperti Raspberry Pi dan perangkat Coral dengan Ujung TPU , antara lain banyak.

Halaman ini menunjukkan bagaimana Anda dapat mulai menjalankan model TensorFlow Lite dengan Python hanya dalam beberapa menit. Yang Anda butuhkan adalah model TensorFlow dikonversi ke TensorFlow Lite . (Jika Anda belum memiliki model yang dikonversi, Anda dapat bereksperimen menggunakan model yang disediakan dengan contoh yang ditautkan di bawah ini.)

Tentang paket runtime TensorFlow Lite

Untuk mulai menjalankan model TensorFlow Lite dengan Python dengan cepat, Anda hanya dapat menginstal penerjemah TensorFlow Lite, bukan semua paket TensorFlow. Kami menyebutnya disederhanakan Python paket tflite_runtime .

The tflite_runtime paket adalah sebagian kecil ukuran penuh tensorflow paket dan termasuk kode minimal yang diperlukan untuk menjalankan kesimpulan dengan TensorFlow Lite-terutama Interpreter kelas Python. Paket kecil ini sangat ideal ketika semua yang Anda ingin lakukan adalah mengeksekusi .tflite model dan ruang disk menghindari pemborosan dengan perpustakaan TensorFlow besar.

Instal TensorFlow Lite untuk Python

Jika Anda menjalankan Debian Linux atau turunan dari Debian (termasuk Raspberry Pi OS), Anda harus menginstal dari repo paket Debian kami. Ini mengharuskan Anda menambahkan daftar repo dan kunci baru ke sistem Anda dan kemudian menginstal sebagai berikut:

echo "deb https://packages.cloud.google.com/apt coral-edgetpu-stable main" | sudo tee /etc/apt/sources.list.d/coral-edgetpu.list
curl https://packages.cloud.google.com/apt/doc/apt-key.gpg | sudo apt-key add -
sudo apt-get update
sudo apt-get install python3-tflite-runtime

Untuk semua sistem lain, Anda dapat menginstal dengan pip:

pip3 install --extra-index-url https://google-coral.github.io/py-repo/ tflite_runtime

Jika Anda ingin menginstal secara manual roda Python, Anda dapat memilih salah satu dari semua tflite_runtime roda .

Jalankan inferensi menggunakan tflite_runtime

Alih-alih mengimpor Interpreter dari tensorflow modul, Anda sekarang perlu mengimpornya dari tflite_runtime .

Misalnya, setelah Anda menginstal paket di atas, salin dan menjalankan label_image.py berkas. Ini akan (mungkin) gagal karena Anda tidak memiliki tensorflow perpustakaan diinstal. Untuk memperbaikinya, edit baris file ini:

import tensorflow as tf

Jadi itu malah berbunyi:

import tflite_runtime.interpreter as tflite

Dan kemudian ubah baris ini:

interpreter = tf.lite.Interpreter(model_path=args.model_file)

Jadi itu berbunyi:

interpreter = tflite.Interpreter(model_path=args.model_file)

Sekarang jalankan label_image.py lagi. Itu dia! Anda sekarang menjalankan model TensorFlow Lite.

Belajarlah lagi

Untuk rincian lebih lanjut tentang Interpreter API, membaca Load dan menjalankan model Python .

Jika Anda memiliki Raspberry Pi, coba contoh classify_picamera.py untuk melakukan klasifikasi citra dengan Kamera Pi dan TensorFlow Lite.

Jika Anda menggunakan akselerator Coral ML, memeriksa contoh Coral di GitHub .

Untuk mengkonversi model TensorFlow lain untuk TensorFlow Lite, membaca tentang TensorFlow Lite Converter .

Jika Anda ingin membangun tflite_runtime roda, membaca Build TensorFlow Lite Python Wheel Paket