يعد استخدام TensorFlow Lite مع Python أمرًا رائعًا للأجهزة المضمنة القائمة على Linux ، مثل Raspberry Pi وأجهزة Coral مع Edge TPU ، من بين العديد من الأجهزة الأخرى.
توضح هذه الصفحة كيف يمكنك بدء تشغيل نماذج TensorFlow Lite باستخدام Python في غضون دقائق قليلة. كل ما تحتاجه هو نموذج TensorFlow تم تحويله إلى TensorFlow Lite . (إذا لم يكن لديك نموذج تم تحويله بعد ، فيمكنك تجربة استخدام النموذج المقدم مع المثال المرتبط أدناه.)
حول حزمة وقت تشغيل TensorFlow Lite
لبدء تنفيذ نماذج TensorFlow Lite بسرعة باستخدام Python ، يمكنك تثبيت مترجم TensorFlow Lite فقط ، بدلاً من جميع حزم TensorFlow. نسمي حزمة Python المبسطة هذه tflite_runtime
.
حزمة tflite_runtime
هي جزء من حجم حزمة tensorflow
الكاملة وتتضمن الحد الأدنى من التعليمات البرمجية المطلوبة لتشغيل الاستنتاجات باستخدام TensorFlow Lite - وهي فئة Interpreter
Python بشكل أساسي. تعتبر هذه الحزمة الصغيرة مثالية عندما يكون كل ما تريد القيام به هو تنفيذ نماذج .tflite
وتجنب إهدار مساحة القرص باستخدام مكتبة TensorFlow الكبيرة.
قم بتثبيت TensorFlow Lite لـ Python
يمكنك التثبيت على Linux باستخدام Pip:
python3 -m pip install tflite-runtime
المنصات المدعومة
تم تصميم عجلات Python التي يتم tflite-runtime
مسبقًا وتم توفيرها لهذه الأنظمة الأساسية:
- Linux armv7l (مثل Raspberry Pi 2 و 3 و 4 و Zero 2 الذي يعمل بنظام Raspberry Pi OS 32 بت)
- Linux aarch64 (مثل Raspberry Pi 3 ، 4 الذي يعمل بنظام Debian ARM64)
- لينكس x86_64
إذا كنت ترغب في تشغيل نماذج TensorFlow Lite على منصات أخرى ، فيجب عليك إما استخدام حزمة TensorFlow الكاملة ، أو إنشاء حزمة tflite-runtime من المصدر .
إذا كنت تستخدم TensorFlow مع Coral Edge TPU ، فيجب عليك بدلاً من ذلك اتباع وثائق إعداد Coral المناسبة.
قم بتشغيل استنتاج باستخدام tflite_runtime
بدلاً من استيراد Interpreter
الفوري من وحدة tensorflow
، فأنت بحاجة الآن إلى استيراده من tflite_runtime
.
على سبيل المثال ، بعد تثبيت الحزمة أعلاه ، انسخ ملف label_image.py
. ستفشل (على الأرجح) لأنه لم يكن لديك مكتبة tensorflow
مثبتة. لإصلاحه ، قم بتحرير هذا السطر من الملف:
import tensorflow as tf
لذلك يقرأ بدلاً من ذلك:
import tflite_runtime.interpreter as tflite
ثم قم بتغيير هذا الخط:
interpreter = tf.lite.Interpreter(model_path=args.model_file)
لذلك يقرأ:
interpreter = tflite.Interpreter(model_path=args.model_file)
الآن قم بتشغيل label_image.py
مرة أخرى. هذا هو! أنت الآن تقوم بتنفيذ نماذج TensorFlow Lite.
يتعلم أكثر
لمزيد من التفاصيل حول
Interpreter
API ، اقرأ تحميل وتشغيل نموذج في Python .إذا كان لديك Raspberry Pi ، فراجع سلسلة فيديو حول كيفية تشغيل اكتشاف الكائنات على Raspberry Pi باستخدام TensorFlow Lite.
إذا كنت تستخدم مسرع Coral ML ، فراجع أمثلة Coral على GitHub .
لتحويل نماذج TensorFlow الأخرى إلى TensorFlow Lite ، اقرأ عن محول TensorFlow Lite .
إذا كنت ترغب في إنشاء عجلة
tflite_runtime
، فاقرأ Build TensorFlow Lite Python Wheel Package
يعد استخدام TensorFlow Lite مع Python أمرًا رائعًا للأجهزة المضمنة القائمة على Linux ، مثل Raspberry Pi وأجهزة Coral مع Edge TPU ، من بين العديد من الأجهزة الأخرى.
توضح هذه الصفحة كيف يمكنك بدء تشغيل نماذج TensorFlow Lite باستخدام Python في غضون دقائق قليلة. كل ما تحتاجه هو نموذج TensorFlow تم تحويله إلى TensorFlow Lite . (إذا لم يكن لديك نموذج تم تحويله بعد ، فيمكنك تجربة استخدام النموذج المقدم مع المثال المرتبط أدناه.)
حول حزمة وقت تشغيل TensorFlow Lite
لبدء تنفيذ نماذج TensorFlow Lite بسرعة باستخدام Python ، يمكنك تثبيت مترجم TensorFlow Lite فقط ، بدلاً من جميع حزم TensorFlow. نسمي حزمة Python المبسطة هذه tflite_runtime
.
حزمة tflite_runtime
هي جزء من حجم حزمة tensorflow
الكاملة وتتضمن الحد الأدنى من التعليمات البرمجية المطلوبة لتشغيل الاستنتاجات باستخدام TensorFlow Lite - وهي فئة Interpreter
Python بشكل أساسي. تعتبر هذه الحزمة الصغيرة مثالية عندما يكون كل ما تريد القيام به هو تنفيذ نماذج .tflite
وتجنب إهدار مساحة القرص باستخدام مكتبة TensorFlow الكبيرة.
قم بتثبيت TensorFlow Lite لـ Python
يمكنك التثبيت على Linux باستخدام Pip:
python3 -m pip install tflite-runtime
المنصات المدعومة
تم تصميم عجلات Python التي يتم tflite-runtime
مسبقًا وتم توفيرها لهذه الأنظمة الأساسية:
- Linux armv7l (مثل Raspberry Pi 2 و 3 و 4 و Zero 2 الذي يعمل بنظام Raspberry Pi OS 32 بت)
- Linux aarch64 (مثل Raspberry Pi 3 ، 4 الذي يعمل بنظام Debian ARM64)
- لينكس x86_64
إذا كنت ترغب في تشغيل نماذج TensorFlow Lite على منصات أخرى ، فيجب عليك إما استخدام حزمة TensorFlow الكاملة ، أو إنشاء حزمة tflite-runtime من المصدر .
إذا كنت تستخدم TensorFlow مع Coral Edge TPU ، فيجب عليك بدلاً من ذلك اتباع وثائق إعداد Coral المناسبة.
قم بتشغيل استنتاج باستخدام tflite_runtime
بدلاً من استيراد Interpreter
الفوري من وحدة tensorflow
، فأنت بحاجة الآن إلى استيراده من tflite_runtime
.
على سبيل المثال ، بعد تثبيت الحزمة أعلاه ، انسخ ملف label_image.py
. ستفشل (على الأرجح) لأنه لم يكن لديك مكتبة tensorflow
مثبتة. لإصلاحه ، قم بتحرير هذا السطر من الملف:
import tensorflow as tf
لذلك يقرأ بدلاً من ذلك:
import tflite_runtime.interpreter as tflite
ثم قم بتغيير هذا الخط:
interpreter = tf.lite.Interpreter(model_path=args.model_file)
لذلك يقرأ:
interpreter = tflite.Interpreter(model_path=args.model_file)
الآن قم بتشغيل label_image.py
مرة أخرى. هذا هو! أنت الآن تقوم بتنفيذ نماذج TensorFlow Lite.
يتعلم أكثر
لمزيد من التفاصيل حول
Interpreter
API ، اقرأ تحميل وتشغيل نموذج في Python .إذا كان لديك Raspberry Pi ، فراجع سلسلة فيديو حول كيفية تشغيل اكتشاف الكائنات على Raspberry Pi باستخدام TensorFlow Lite.
إذا كنت تستخدم مسرع Coral ML ، فراجع أمثلة Coral على GitHub .
لتحويل نماذج TensorFlow الأخرى إلى TensorFlow Lite ، اقرأ عن محول TensorFlow Lite .
إذا كنت ترغب في إنشاء عجلة
tflite_runtime
، فاقرأ Build TensorFlow Lite Python Wheel Package