نشكرك على متابعة Google I / O. عرض جميع الجلسات عند الطلب مشاهدة عند الطلب

Quickstart للأجهزة التي تعمل بنظام Linux مع Python

يعد استخدام TensorFlow Lite مع Python أمرًا رائعًا للأجهزة المضمنة القائمة على Linux ، مثل Raspberry Pi وأجهزة Coral مع Edge TPU ، من بين العديد من الأجهزة الأخرى.

توضح هذه الصفحة كيف يمكنك بدء تشغيل نماذج TensorFlow Lite باستخدام Python في غضون دقائق قليلة. كل ما تحتاجه هو نموذج TensorFlow تم تحويله إلى TensorFlow Lite . (إذا لم يكن لديك نموذج تم تحويله بعد ، فيمكنك تجربة استخدام النموذج المقدم مع المثال المرتبط أدناه.)

حول حزمة وقت تشغيل TensorFlow Lite

لبدء تنفيذ نماذج TensorFlow Lite بسرعة باستخدام Python ، يمكنك تثبيت مترجم TensorFlow Lite فقط ، بدلاً من جميع حزم TensorFlow. نسمي حزمة Python المبسطة هذه tflite_runtime .

حزمة tflite_runtime هي جزء من حجم حزمة tensorflow الكاملة وتتضمن الحد الأدنى من التعليمات البرمجية المطلوبة لتشغيل الاستنتاجات باستخدام TensorFlow Lite - وهي فئة Interpreter Python بشكل أساسي. تعتبر هذه الحزمة الصغيرة مثالية عندما يكون كل ما تريد القيام به هو تنفيذ نماذج .tflite وتجنب إهدار مساحة القرص باستخدام مكتبة TensorFlow الكبيرة.

قم بتثبيت TensorFlow Lite لـ Python

يمكنك التثبيت على Linux باستخدام Pip:

python3 -m pip install tflite-runtime

المنصات المدعومة

تم تصميم عجلات Python التي يتم tflite-runtime مسبقًا وتم توفيرها لهذه الأنظمة الأساسية:

  • Linux armv7l (مثل Raspberry Pi 2 و 3 و 4 و Zero 2 الذي يعمل بنظام Raspberry Pi OS 32 بت)
  • Linux aarch64 (مثل Raspberry Pi 3 ، 4 الذي يعمل بنظام Debian ARM64)
  • لينكس x86_64

إذا كنت ترغب في تشغيل نماذج TensorFlow Lite على منصات أخرى ، فيجب عليك إما استخدام حزمة TensorFlow الكاملة ، أو إنشاء حزمة tflite-runtime من المصدر .

إذا كنت تستخدم TensorFlow مع Coral Edge TPU ، فيجب عليك بدلاً من ذلك اتباع وثائق إعداد Coral المناسبة.

قم بتشغيل استنتاج باستخدام tflite_runtime

بدلاً من استيراد Interpreter الفوري من وحدة tensorflow ، فأنت بحاجة الآن إلى استيراده من tflite_runtime .

على سبيل المثال ، بعد تثبيت الحزمة أعلاه ، انسخ ملف label_image.py . ستفشل (على الأرجح) لأنه لم يكن لديك مكتبة tensorflow مثبتة. لإصلاحه ، قم بتحرير هذا السطر من الملف:

import tensorflow as tf

لذلك يقرأ بدلاً من ذلك:

import tflite_runtime.interpreter as tflite

ثم قم بتغيير هذا الخط:

interpreter = tf.lite.Interpreter(model_path=args.model_file)

لذلك يقرأ:

interpreter = tflite.Interpreter(model_path=args.model_file)

الآن قم بتشغيل label_image.py مرة أخرى. هذا هو! أنت الآن تقوم بتنفيذ نماذج TensorFlow Lite.

يتعلم أكثر

و

يعد استخدام TensorFlow Lite مع Python أمرًا رائعًا للأجهزة المضمنة القائمة على Linux ، مثل Raspberry Pi وأجهزة Coral مع Edge TPU ، من بين العديد من الأجهزة الأخرى.

توضح هذه الصفحة كيف يمكنك بدء تشغيل نماذج TensorFlow Lite باستخدام Python في غضون دقائق قليلة. كل ما تحتاجه هو نموذج TensorFlow تم تحويله إلى TensorFlow Lite . (إذا لم يكن لديك نموذج تم تحويله بعد ، فيمكنك تجربة استخدام النموذج المقدم مع المثال المرتبط أدناه.)

حول حزمة وقت تشغيل TensorFlow Lite

لبدء تنفيذ نماذج TensorFlow Lite بسرعة باستخدام Python ، يمكنك تثبيت مترجم TensorFlow Lite فقط ، بدلاً من جميع حزم TensorFlow. نسمي حزمة Python المبسطة هذه tflite_runtime .

حزمة tflite_runtime هي جزء من حجم حزمة tensorflow الكاملة وتتضمن الحد الأدنى من التعليمات البرمجية المطلوبة لتشغيل الاستنتاجات باستخدام TensorFlow Lite - وهي فئة Interpreter Python بشكل أساسي. تعتبر هذه الحزمة الصغيرة مثالية عندما يكون كل ما تريد القيام به هو تنفيذ نماذج .tflite وتجنب إهدار مساحة القرص باستخدام مكتبة TensorFlow الكبيرة.

قم بتثبيت TensorFlow Lite لـ Python

يمكنك التثبيت على Linux باستخدام Pip:

python3 -m pip install tflite-runtime

المنصات المدعومة

تم تصميم عجلات Python التي يتم tflite-runtime مسبقًا وتم توفيرها لهذه الأنظمة الأساسية:

  • Linux armv7l (مثل Raspberry Pi 2 و 3 و 4 و Zero 2 الذي يعمل بنظام Raspberry Pi OS 32 بت)
  • Linux aarch64 (مثل Raspberry Pi 3 ، 4 الذي يعمل بنظام Debian ARM64)
  • لينكس x86_64

إذا كنت ترغب في تشغيل نماذج TensorFlow Lite على منصات أخرى ، فيجب عليك إما استخدام حزمة TensorFlow الكاملة ، أو إنشاء حزمة tflite-runtime من المصدر .

إذا كنت تستخدم TensorFlow مع Coral Edge TPU ، فيجب عليك بدلاً من ذلك اتباع وثائق إعداد Coral المناسبة.

قم بتشغيل استنتاج باستخدام tflite_runtime

بدلاً من استيراد Interpreter الفوري من وحدة tensorflow ، فأنت بحاجة الآن إلى استيراده من tflite_runtime .

على سبيل المثال ، بعد تثبيت الحزمة أعلاه ، انسخ ملف label_image.py . ستفشل (على الأرجح) لأنه لم يكن لديك مكتبة tensorflow مثبتة. لإصلاحه ، قم بتحرير هذا السطر من الملف:

import tensorflow as tf

لذلك يقرأ بدلاً من ذلك:

import tflite_runtime.interpreter as tflite

ثم قم بتغيير هذا الخط:

interpreter = tf.lite.Interpreter(model_path=args.model_file)

لذلك يقرأ:

interpreter = tflite.Interpreter(model_path=args.model_file)

الآن قم بتشغيل label_image.py مرة أخرى. هذا هو! أنت الآن تقوم بتنفيذ نماذج TensorFlow Lite.

يتعلم أكثر