Hadiri Simposium Women in ML pada 7 Desember Daftar sekarang

Panduan memulai untuk perangkat berbasis Linux dengan Python

Tetap teratur dengan koleksi Simpan dan kategorikan konten berdasarkan preferensi Anda.

Menggunakan TensorFlow Lite dengan Python sangat bagus untuk perangkat tertanam berbasis Linux, seperti perangkat Raspberry Pi dan Coral dengan Edge TPU , di antara banyak lainnya.

Halaman ini menunjukkan bagaimana Anda dapat mulai menjalankan model TensorFlow Lite dengan Python hanya dalam beberapa menit. Yang Anda butuhkan hanyalah model TensorFlow yang dikonversi ke TensorFlow Lite . (Jika Anda belum memiliki model yang dikonversi, Anda dapat bereksperimen menggunakan model yang disediakan dengan contoh yang ditautkan di bawah ini.)

Tentang paket runtime TensorFlow Lite

Untuk mulai menjalankan model TensorFlow Lite dengan Python dengan cepat, Anda hanya dapat menginstal penerjemah TensorFlow Lite, bukan semua paket TensorFlow. Kami menyebut paket Python yang disederhanakan ini tflite_runtime .

Paket tflite_runtime adalah sebagian kecil dari ukuran paket tensorflow penuh dan menyertakan kode minimum yang diperlukan untuk menjalankan inferensi dengan TensorFlow Lite—terutama kelas Interpreter Python. Paket kecil ini ideal saat Anda hanya ingin menjalankan model .tflite dan menghindari pemborosan ruang disk dengan library TensorFlow yang besar.

Instal TensorFlow Lite untuk Python

Anda dapat menginstal di Linux dengan pip:

python3 -m pip install tflite-runtime

Platform yang didukung

Roda Python tflite-runtime sudah dibuat sebelumnya dan disediakan untuk platform ini:

  • Linux armv7l (misalnya Raspberry Pi 2, 3, 4 dan Zero 2 yang menjalankan Raspberry Pi OS 32-bit)
  • Linux aarch64 (misalnya Raspberry Pi 3, 4 menjalankan Debian ARM64)
  • Linux x86_64

Jika Anda ingin menjalankan model TensorFlow Lite di platform lain, Anda harus menggunakan paket TensorFlow lengkap , atau membangun paket tflite-runtime dari sumber .

Jika Anda menggunakan TensorFlow dengan TPU Coral Edge, Anda harus mengikuti dokumentasi penyiapan Coral yang sesuai .

Jalankan inferensi menggunakan tflite_runtime

Alih-alih mengimpor Interpreter dari modul tensorflow , Anda sekarang perlu mengimpornya dari tflite_runtime .

Misalnya, setelah Anda menginstal paket di atas, salin dan jalankan file label_image.py . Ini (mungkin) akan gagal karena Anda tidak menginstal pustaka tensorflow . Untuk memperbaikinya, edit baris file ini:

import tensorflow as tf

Jadi itu malah berbunyi:

import tflite_runtime.interpreter as tflite

Dan kemudian ubah baris ini:

interpreter = tf.lite.Interpreter(model_path=args.model_file)

Jadi bunyinya:

interpreter = tflite.Interpreter(model_path=args.model_file)

Sekarang jalankan label_image.py lagi. Itu dia! Anda sekarang menjalankan model TensorFlow Lite.

Belajarlah lagi

,

Menggunakan TensorFlow Lite dengan Python sangat bagus untuk perangkat tertanam berbasis Linux, seperti perangkat Raspberry Pi dan Coral dengan Edge TPU , di antara banyak lainnya.

Halaman ini menunjukkan bagaimana Anda dapat mulai menjalankan model TensorFlow Lite dengan Python hanya dalam beberapa menit. Yang Anda butuhkan hanyalah model TensorFlow yang dikonversi ke TensorFlow Lite . (Jika Anda belum memiliki model yang dikonversi, Anda dapat bereksperimen menggunakan model yang disediakan dengan contoh yang ditautkan di bawah ini.)

Tentang paket runtime TensorFlow Lite

Untuk mulai menjalankan model TensorFlow Lite dengan Python dengan cepat, Anda hanya dapat menginstal penerjemah TensorFlow Lite, bukan semua paket TensorFlow. Kami menyebut paket Python yang disederhanakan ini tflite_runtime .

Paket tflite_runtime adalah sebagian kecil dari ukuran paket tensorflow penuh dan menyertakan kode minimum yang diperlukan untuk menjalankan inferensi dengan TensorFlow Lite—terutama kelas Interpreter Python. Paket kecil ini ideal saat Anda hanya ingin menjalankan model .tflite dan menghindari pemborosan ruang disk dengan library TensorFlow yang besar.

Instal TensorFlow Lite untuk Python

Anda dapat menginstal di Linux dengan pip:

python3 -m pip install tflite-runtime

Platform yang didukung

Roda Python tflite-runtime sudah dibuat sebelumnya dan disediakan untuk platform ini:

  • Linux armv7l (misalnya Raspberry Pi 2, 3, 4 dan Zero 2 yang menjalankan Raspberry Pi OS 32-bit)
  • Linux aarch64 (misalnya Raspberry Pi 3, 4 menjalankan Debian ARM64)
  • Linux x86_64

Jika Anda ingin menjalankan model TensorFlow Lite di platform lain, Anda harus menggunakan paket TensorFlow lengkap , atau membangun paket tflite-runtime dari sumber .

Jika Anda menggunakan TensorFlow dengan TPU Coral Edge, Anda harus mengikuti dokumentasi penyiapan Coral yang sesuai .

Jalankan inferensi menggunakan tflite_runtime

Alih-alih mengimpor Interpreter dari modul tensorflow , Anda sekarang perlu mengimpornya dari tflite_runtime .

Misalnya, setelah Anda menginstal paket di atas, salin dan jalankan file label_image.py . Ini (mungkin) akan gagal karena Anda tidak menginstal pustaka tensorflow . Untuk memperbaikinya, edit baris file ini:

import tensorflow as tf

Jadi itu malah berbunyi:

import tflite_runtime.interpreter as tflite

Dan kemudian ubah baris ini:

interpreter = tf.lite.Interpreter(model_path=args.model_file)

Jadi bunyinya:

interpreter = tflite.Interpreter(model_path=args.model_file)

Sekarang jalankan label_image.py lagi. Itu dia! Anda sekarang menjalankan model TensorFlow Lite.

Belajarlah lagi