Cảm ơn bạn đã theo dõi Google I/O. Xem tất cả các phiên theo yêu cầu Xem theo yêu cầu

Khởi động nhanh cho các thiết bị dựa trên Linux với Python

Sử dụng TensorFlow Lite với Python rất tốt cho các thiết bị nhúng dựa trên Linux, chẳng hạn như các thiết bị Raspberry PiCoral với Edge TPU , trong số nhiều thiết bị khác.

Trang này cho biết cách bạn có thể bắt đầu chạy các mô hình TensorFlow Lite với Python chỉ trong vài phút. Tất cả những gì bạn cần là một mô hình TensorFlow được chuyển đổi thành TensorFlow Lite . (Nếu bạn chưa chuyển đổi mô hình, bạn có thể thử nghiệm bằng cách sử dụng mô hình được cung cấp cùng với ví dụ được liên kết bên dưới.)

Giới thiệu về gói thời gian chạy TensorFlow Lite

Để nhanh chóng bắt đầu thực thi các mô hình TensorFlow Lite bằng Python, bạn có thể chỉ cài đặt trình thông dịch TensorFlow Lite, thay vì tất cả các gói TensorFlow. Chúng tôi gọi gói Python đơn giản này là tflite_runtime .

Gói tflite_runtime có kích thước bằng một phần nhỏ của gói tensorflow đầy đủ và bao gồm mã tối thiểu cần thiết để chạy các suy luận với TensorFlow Lite — chủ yếu là lớp Interpreter Python. Gói nhỏ này lý tưởng khi tất cả những gì bạn muốn làm là thực thi các mô hình .tflite và tránh lãng phí dung lượng ổ đĩa với thư viện TensorFlow lớn.

Cài đặt TensorFlow Lite cho Python

Bạn có thể cài đặt trên Linux bằng pip:

python3 -m pip install tflite-runtime

Nền tảng được hỗ trợ

Các bánh xe Python tflite-runtime được tạo sẵn và cung cấp cho các nền tảng này:

  • Linux armv7l (ví dụ: Raspberry Pi 2, 3, 4 và Zero 2 chạy Raspberry Pi OS 32-bit)
  • Linux aarch64 (ví dụ: Raspberry Pi 3, 4 chạy Debian ARM64)
  • Linux x86_64

Nếu bạn muốn chạy các mô hình TensorFlow Lite trên các nền tảng khác, bạn nên sử dụng gói TensorFlow đầy đủ hoặc xây dựng gói tflite-runtime từ nguồn .

Nếu bạn đang sử dụng TensorFlow với TPU Coral Edge, thay vào đó, bạn nên làm theo tài liệu thiết lập Coral thích hợp.

Chạy suy luận bằng tflite_runtime

Thay vì nhập Interpreter từ mô-đun tensorflow , bây giờ bạn cần nhập Trình thông dịch từ tflite_runtime .

Ví dụ: sau khi bạn cài đặt gói ở trên, hãy sao chép và chạy tệp label_image.py . Nó sẽ (có thể) không thành công vì bạn chưa cài đặt thư viện tensorflow . Để khắc phục, hãy chỉnh sửa dòng này của tệp:

import tensorflow as tf

Vì vậy, nó thay vào đó đọc:

import tflite_runtime.interpreter as tflite

Và sau đó thay đổi dòng này:

interpreter = tf.lite.Interpreter(model_path=args.model_file)

Vì vậy, nó đọc:

interpreter = tflite.Interpreter(model_path=args.model_file)

Bây giờ hãy chạy lại label_image.py . Đó là nó! Bây giờ bạn đang thực thi các mô hình TensorFlow Lite.

Tìm hiểu thêm

,

Sử dụng TensorFlow Lite với Python rất tốt cho các thiết bị nhúng dựa trên Linux, chẳng hạn như các thiết bị Raspberry PiCoral với Edge TPU , trong số nhiều thiết bị khác.

Trang này cho biết cách bạn có thể bắt đầu chạy các mô hình TensorFlow Lite với Python chỉ trong vài phút. Tất cả những gì bạn cần là một mô hình TensorFlow được chuyển đổi thành TensorFlow Lite . (Nếu bạn chưa chuyển đổi mô hình, bạn có thể thử nghiệm bằng cách sử dụng mô hình được cung cấp cùng với ví dụ được liên kết bên dưới.)

Giới thiệu về gói thời gian chạy TensorFlow Lite

Để nhanh chóng bắt đầu thực thi các mô hình TensorFlow Lite bằng Python, bạn có thể chỉ cài đặt trình thông dịch TensorFlow Lite, thay vì tất cả các gói TensorFlow. Chúng tôi gọi gói Python đơn giản này là tflite_runtime .

Gói tflite_runtime có kích thước bằng một phần nhỏ của gói tensorflow đầy đủ và bao gồm mã tối thiểu cần thiết để chạy các suy luận với TensorFlow Lite — chủ yếu là lớp Interpreter Python. Gói nhỏ này lý tưởng khi tất cả những gì bạn muốn làm là thực thi các mô hình .tflite và tránh lãng phí dung lượng ổ đĩa với thư viện TensorFlow lớn.

Cài đặt TensorFlow Lite cho Python

Bạn có thể cài đặt trên Linux bằng pip:

python3 -m pip install tflite-runtime

Nền tảng được hỗ trợ

Các bánh xe Python tflite-runtime được tạo sẵn và cung cấp cho các nền tảng này:

  • Linux armv7l (ví dụ: Raspberry Pi 2, 3, 4 và Zero 2 chạy Raspberry Pi OS 32-bit)
  • Linux aarch64 (ví dụ: Raspberry Pi 3, 4 chạy Debian ARM64)
  • Linux x86_64

Nếu bạn muốn chạy các mô hình TensorFlow Lite trên các nền tảng khác, bạn nên sử dụng gói TensorFlow đầy đủ hoặc xây dựng gói tflite-runtime từ nguồn .

Nếu bạn đang sử dụng TensorFlow với TPU Coral Edge, thay vào đó, bạn nên làm theo tài liệu thiết lập Coral thích hợp.

Chạy suy luận bằng tflite_runtime

Thay vì nhập Interpreter từ mô-đun tensorflow , bây giờ bạn cần nhập Trình thông dịch từ tflite_runtime .

Ví dụ: sau khi bạn cài đặt gói ở trên, hãy sao chép và chạy tệp label_image.py . Nó sẽ (có thể) không thành công vì bạn chưa cài đặt thư viện tensorflow . Để khắc phục, hãy chỉnh sửa dòng này của tệp:

import tensorflow as tf

Vì vậy, nó thay vào đó đọc:

import tflite_runtime.interpreter as tflite

Và sau đó thay đổi dòng này:

interpreter = tf.lite.Interpreter(model_path=args.model_file)

Vì vậy, nó đọc:

interpreter = tflite.Interpreter(model_path=args.model_file)

Bây giờ hãy chạy lại label_image.py . Đó là nó! Bây giờ bạn đang thực thi các mô hình TensorFlow Lite.

Tìm hiểu thêm