راه اندازی سریع برای دستگاه های مبتنی بر لینوکس با پایتون

با مجموعه‌ها، منظم بمانید ذخیره و دسته‌بندی محتوا براساس اولویت‌های شما.

استفاده از TensorFlow Lite با پایتون برای دستگاه‌های تعبیه‌شده مبتنی بر لینوکس، مانند دستگاه‌های Raspberry Pi و Coral با Edge TPU و بسیاری دیگر، عالی است.

این صفحه نشان می دهد که چگونه می توانید تنها در چند دقیقه مدل های TensorFlow Lite را با پایتون اجرا کنید. تنها چیزی که نیاز دارید یک مدل TensorFlow است که به TensorFlow Lite تبدیل شده است. (اگر هنوز مدلی تبدیل نشده است، می توانید با استفاده از مدل ارائه شده با مثال لینک زیر آزمایش کنید.)

درباره بسته زمان اجرا TensorFlow Lite

برای شروع سریع اجرای مدل های TensorFlow Lite با پایتون، می توانید به جای همه بسته های TensorFlow، فقط مفسر TensorFlow Lite را نصب کنید. ما این بسته پایتون ساده شده را tflite_runtime می نامیم.

بسته tflite_runtime کسری به اندازه بسته کامل tensorflow است و شامل حداقل کد لازم برای اجرای استنتاج‌ها با TensorFlow Lite است - در درجه اول کلاس Interpreter Python. این بسته کوچک زمانی ایده آل است که تنها کاری که می خواهید انجام دهید اجرای مدل های .tflite و جلوگیری از هدر رفتن فضای دیسک با کتابخانه بزرگ TensorFlow است.

TensorFlow Lite را برای پایتون نصب کنید

می توانید با pip روی لینوکس نصب کنید:

python3 -m pip install tflite-runtime

پلتفرم های پشتیبانی شده

چرخ‌های پایتون tflite-runtime برای این پلتفرم‌ها از پیش ساخته و ارائه شده‌اند:

  • لینوکس armv7l (به عنوان مثال Raspberry Pi 2، 3، 4 و Zero 2 دارای سیستم عامل Raspberry Pi 32 بیتی)
  • لینوکس aarch64 (به عنوان مثال Raspberry Pi 3, 4 در حال اجرا Debian ARM64)
  • لینوکس x86_64

اگر می‌خواهید مدل‌های TensorFlow Lite را روی پلتفرم‌های دیگر اجرا کنید، باید از بسته کامل TensorFlow استفاده کنید یا بسته tflite-runtime را از منبع بسازید .

اگر از TensorFlow با Coral Edge TPU استفاده می‌کنید، در عوض باید مستندات راه‌اندازی Coral مناسب را دنبال کنید.

یک استنتاج را با استفاده از tflite_runtime اجرا کنید

به جای وارد کردن Interpreter از ماژول tensorflow ، اکنون باید آن را از tflite_runtime وارد کنید.

به عنوان مثال، پس از نصب بسته بالا، فایل label_image.py را کپی و اجرا کنید. (احتمالا) به دلیل اینکه کتابخانه tensorflow را نصب نکرده اید، شکست خواهد خورد. برای رفع آن، این خط فایل را ویرایش کنید:

import tensorflow as tf

بنابراین در عوض می‌خواند:

import tflite_runtime.interpreter as tflite

و سپس این خط را تغییر دهید:

interpreter = tf.lite.Interpreter(model_path=args.model_file)

پس میخواند:

interpreter = tflite.Interpreter(model_path=args.model_file)

حالا دوباره label_image.py را اجرا کنید. خودشه! اکنون در حال اجرای مدل‌های TensorFlow Lite هستید.

بیشتر بدانید

،

استفاده از TensorFlow Lite با پایتون برای دستگاه‌های تعبیه‌شده مبتنی بر لینوکس، مانند دستگاه‌های Raspberry Pi و Coral با Edge TPU و بسیاری دیگر، عالی است.

این صفحه نشان می دهد که چگونه می توانید تنها در چند دقیقه مدل های TensorFlow Lite را با پایتون اجرا کنید. تنها چیزی که نیاز دارید یک مدل TensorFlow است که به TensorFlow Lite تبدیل شده است. (اگر هنوز مدلی تبدیل نشده است، می توانید با استفاده از مدل ارائه شده با مثال لینک زیر آزمایش کنید.)

درباره بسته زمان اجرا TensorFlow Lite

برای شروع سریع اجرای مدل های TensorFlow Lite با پایتون، می توانید به جای همه بسته های TensorFlow، فقط مفسر TensorFlow Lite را نصب کنید. ما این بسته پایتون ساده شده را tflite_runtime می نامیم.

بسته tflite_runtime کسری به اندازه بسته کامل tensorflow است و شامل حداقل کد لازم برای اجرای استنتاج‌ها با TensorFlow Lite است - در درجه اول کلاس Interpreter Python. این بسته کوچک زمانی ایده آل است که تنها کاری که می خواهید انجام دهید اجرای مدل های .tflite و جلوگیری از هدر رفتن فضای دیسک با کتابخانه بزرگ TensorFlow است.

TensorFlow Lite را برای پایتون نصب کنید

می توانید با pip روی لینوکس نصب کنید:

python3 -m pip install tflite-runtime

پلتفرم های پشتیبانی شده

چرخ‌های پایتون tflite-runtime برای این پلتفرم‌ها از پیش ساخته و ارائه شده‌اند:

  • لینوکس armv7l (به عنوان مثال Raspberry Pi 2، 3، 4 و Zero 2 دارای سیستم عامل Raspberry Pi 32 بیتی)
  • لینوکس aarch64 (به عنوان مثال Raspberry Pi 3, 4 در حال اجرا Debian ARM64)
  • لینوکس x86_64

اگر می‌خواهید مدل‌های TensorFlow Lite را روی پلتفرم‌های دیگر اجرا کنید، باید از بسته کامل TensorFlow استفاده کنید یا بسته tflite-runtime را از منبع بسازید .

اگر از TensorFlow با Coral Edge TPU استفاده می‌کنید، در عوض باید مستندات راه‌اندازی Coral مناسب را دنبال کنید.

یک استنتاج را با استفاده از tflite_runtime اجرا کنید

به جای وارد کردن Interpreter از ماژول tensorflow ، اکنون باید آن را از tflite_runtime وارد کنید.

به عنوان مثال، پس از نصب بسته بالا، فایل label_image.py را کپی و اجرا کنید. (احتمالا) به دلیل اینکه کتابخانه tensorflow را نصب نکرده اید، شکست خواهد خورد. برای رفع آن، این خط فایل را ویرایش کنید:

import tensorflow as tf

بنابراین در عوض می‌خواند:

import tflite_runtime.interpreter as tflite

و سپس این خط را تغییر دهید:

interpreter = tf.lite.Interpreter(model_path=args.model_file)

پس میخواند:

interpreter = tflite.Interpreter(model_path=args.model_file)

حالا دوباره label_image.py را اجرا کنید. خودشه! اکنون در حال اجرای مدل‌های TensorFlow Lite هستید.

بیشتر بدانید