পাইথনের সাথে টেনসরফ্লো লাইট ব্যবহার করা লিনাক্সের উপর ভিত্তি করে এমবেড করা ডিভাইসগুলির জন্য দুর্দান্ত, যেমন রাস্পবেরি পাই এবং এজ টিপিইউ সহ কোরাল ডিভাইস , অন্য অনেকের মধ্যে।
এই পৃষ্ঠাটি দেখায় কিভাবে আপনি মাত্র কয়েক মিনিটের মধ্যে Python এর সাথে TensorFlow Lite মডেল চালানো শুরু করতে পারেন। আপনার যা দরকার তা হল টেনসরফ্লো লাইটে রূপান্তরিত একটি টেনসরফ্লো মডেল৷ (যদি আপনার এখনও রূপান্তরিত একটি মডেল না থাকে, তাহলে আপনি নীচে লিঙ্ক করা উদাহরণ সহ প্রদত্ত মডেলটি ব্যবহার করে পরীক্ষা করতে পারেন।)
TensorFlow Lite রানটাইম প্যাকেজ সম্পর্কে
Python এর সাথে TensorFlow Lite মডেলগুলি দ্রুত কার্যকর করা শুরু করতে, আপনি সমস্ত TensorFlow প্যাকেজের পরিবর্তে শুধুমাত্র TensorFlow Lite ইন্টারপ্রেটার ইনস্টল করতে পারেন। আমরা এই সরলীকৃত পাইথন প্যাকেজটিকে tflite_runtime
।
tflite_runtime
প্যাকেজটি সম্পূর্ণ tensorflow
প্যাকেজের আকারের একটি ভগ্নাংশ এবং এতে TensorFlow Lite-এর সাথে প্রাথমিকভাবে Interpreter
পাইথন ক্লাসের অনুমান চালানোর জন্য প্রয়োজনীয় নূন্যতম কোডটি অন্তর্ভুক্ত রয়েছে। এই ছোট প্যাকেজটি আদর্শ যখন আপনি যা করতে চান তা হল .tflite
মডেলগুলি চালানো এবং বড় TensorFlow লাইব্রেরির সাথে ডিস্কের স্থান নষ্ট করা এড়ানো৷
Python এর জন্য TensorFlow Lite ইনস্টল করুন
আপনি পিপ দিয়ে লিনাক্সে ইনস্টল করতে পারেন:
python3 -m pip install tflite-runtime
সমর্থিত প্ল্যাটফর্ম
tflite-runtime
পাইথন চাকাগুলি এই প্ল্যাটফর্মগুলির জন্য পূর্ব-নির্মিত এবং সরবরাহ করা হয়েছে:
- Linux armv7l (যেমন Raspberry Pi 2, 3, 4 এবং Zero 2 চলমান Raspberry Pi OS 32-bit)
- Linux aarch64 (যেমন Raspberry Pi 3, 4 চলমান Debian ARM64)
- লিনাক্স x86_64
আপনি যদি অন্যান্য প্ল্যাটফর্মে TensorFlow Lite মডেল চালাতে চান, তাহলে আপনার হয় সম্পূর্ণ TensorFlow প্যাকেজ ব্যবহার করা উচিত, অথবা উৎস থেকে tflite-রানটাইম প্যাকেজ তৈরি করা উচিত ।
আপনি যদি Coral Edge TPU-এর সাথে TensorFlow ব্যবহার করেন, তাহলে আপনার পরিবর্তে উপযুক্ত কোরাল সেটআপ ডকুমেন্টেশন অনুসরণ করা উচিত।
tflite_runtime ব্যবহার করে একটি অনুমান চালান
tensorflow
মডিউল থেকে Interpreter
আমদানি করার পরিবর্তে, আপনাকে এখন এটি tflite_runtime
থেকে আমদানি করতে হবে।
উদাহরণস্বরূপ, আপনি উপরের প্যাকেজটি ইনস্টল করার পরে, label_image.py
ফাইলটি অনুলিপি করুন এবং চালান। এটি (সম্ভবত) ব্যর্থ হবে কারণ আপনার কাছে tensorflow
লাইব্রেরি ইনস্টল নেই। এটি ঠিক করতে, ফাইলের এই লাইনটি সম্পাদনা করুন:
import tensorflow as tf
তাই এটি পরিবর্তে পড়ে:
import tflite_runtime.interpreter as tflite
এবং তারপর এই লাইন পরিবর্তন করুন:
interpreter = tf.lite.Interpreter(model_path=args.model_file)
তাই এটি পড়ে:
interpreter = tflite.Interpreter(model_path=args.model_file)
এখন আবার label_image.py
চালান। এটাই! আপনি এখন TensorFlow Lite মডেলগুলি চালাচ্ছেন।
আরও জানুন
Interpreter
এপিআই সম্পর্কে আরও বিস্তারিত জানার জন্য, পাইথনে একটি মডেল লোড করুন এবং চালান পড়ুন।আপনার যদি রাস্পবেরি পাই থাকে তবে টেনসরফ্লো লাইট ব্যবহার করে রাস্পবেরি পাইতে কীভাবে অবজেক্ট ডিটেকশন চালানো যায় সে সম্পর্কে একটি ভিডিও সিরিজ দেখুন।
আপনি যদি একটি কোরাল এমএল অ্যাক্সিলারেটর ব্যবহার করেন, GitHub-এ প্রবাল উদাহরণগুলি দেখুন ।
অন্যান্য টেনসরফ্লো মডেলগুলিকে টেনসরফ্লো লাইটে রূপান্তর করতে, টেনসরফ্লো লাইট কনভার্টার সম্পর্কে পড়ুন।
আপনি যদি tflite_runtime হুইল তৈরি করতে চান, বিল্ড
tflite_runtime
লাইট পাইথন হুইল প্যাকেজ পড়ুন
পাইথনের সাথে টেনসরফ্লো লাইট ব্যবহার করা লিনাক্সের উপর ভিত্তি করে এমবেড করা ডিভাইসগুলির জন্য দুর্দান্ত, যেমন রাস্পবেরি পাই এবং এজ টিপিইউ সহ কোরাল ডিভাইস , অন্য অনেকের মধ্যে।
এই পৃষ্ঠাটি দেখায় কিভাবে আপনি মাত্র কয়েক মিনিটের মধ্যে Python এর সাথে TensorFlow Lite মডেল চালানো শুরু করতে পারেন। আপনার যা দরকার তা হল টেনসরফ্লো লাইটে রূপান্তরিত একটি টেনসরফ্লো মডেল৷ (যদি আপনার এখনও রূপান্তরিত একটি মডেল না থাকে, তাহলে আপনি নীচে লিঙ্ক করা উদাহরণ সহ প্রদত্ত মডেলটি ব্যবহার করে পরীক্ষা করতে পারেন।)
TensorFlow Lite রানটাইম প্যাকেজ সম্পর্কে
Python এর সাথে TensorFlow Lite মডেলগুলি দ্রুত কার্যকর করা শুরু করতে, আপনি সমস্ত TensorFlow প্যাকেজের পরিবর্তে শুধুমাত্র TensorFlow Lite ইন্টারপ্রেটার ইনস্টল করতে পারেন। আমরা এই সরলীকৃত পাইথন প্যাকেজটিকে tflite_runtime
।
tflite_runtime
প্যাকেজটি সম্পূর্ণ tensorflow
প্যাকেজের আকারের একটি ভগ্নাংশ এবং এতে TensorFlow Lite-এর সাথে প্রাথমিকভাবে Interpreter
পাইথন ক্লাসের অনুমান চালানোর জন্য প্রয়োজনীয় নূন্যতম কোডটি অন্তর্ভুক্ত রয়েছে। এই ছোট প্যাকেজটি আদর্শ যখন আপনি যা করতে চান তা হল .tflite
মডেলগুলি চালানো এবং বড় TensorFlow লাইব্রেরির সাথে ডিস্কের স্থান নষ্ট করা এড়ানো৷
Python এর জন্য TensorFlow Lite ইনস্টল করুন
আপনি পিপ দিয়ে লিনাক্সে ইনস্টল করতে পারেন:
python3 -m pip install tflite-runtime
সমর্থিত প্ল্যাটফর্ম
tflite-runtime
পাইথন চাকাগুলি এই প্ল্যাটফর্মগুলির জন্য পূর্ব-নির্মিত এবং সরবরাহ করা হয়েছে:
- Linux armv7l (যেমন Raspberry Pi 2, 3, 4 এবং Zero 2 চলমান Raspberry Pi OS 32-bit)
- Linux aarch64 (যেমন Raspberry Pi 3, 4 চলমান Debian ARM64)
- লিনাক্স x86_64
আপনি যদি অন্যান্য প্ল্যাটফর্মে TensorFlow Lite মডেল চালাতে চান, তাহলে আপনার হয় সম্পূর্ণ TensorFlow প্যাকেজ ব্যবহার করা উচিত, অথবা উৎস থেকে tflite-রানটাইম প্যাকেজ তৈরি করা উচিত ।
আপনি যদি Coral Edge TPU-এর সাথে TensorFlow ব্যবহার করেন, তাহলে আপনার পরিবর্তে উপযুক্ত কোরাল সেটআপ ডকুমেন্টেশন অনুসরণ করা উচিত।
tflite_runtime ব্যবহার করে একটি অনুমান চালান
tensorflow
মডিউল থেকে Interpreter
আমদানি করার পরিবর্তে, আপনাকে এখন এটি tflite_runtime
থেকে আমদানি করতে হবে।
উদাহরণস্বরূপ, আপনি উপরের প্যাকেজটি ইনস্টল করার পরে, label_image.py
ফাইলটি অনুলিপি করুন এবং চালান। এটি (সম্ভবত) ব্যর্থ হবে কারণ আপনার কাছে tensorflow
লাইব্রেরি ইনস্টল নেই। এটি ঠিক করতে, ফাইলের এই লাইনটি সম্পাদনা করুন:
import tensorflow as tf
তাই এটি পরিবর্তে পড়ে:
import tflite_runtime.interpreter as tflite
এবং তারপর এই লাইন পরিবর্তন করুন:
interpreter = tf.lite.Interpreter(model_path=args.model_file)
তাই এটি পড়ে:
interpreter = tflite.Interpreter(model_path=args.model_file)
এখন আবার label_image.py
চালান। এটাই! আপনি এখন TensorFlow Lite মডেলগুলি চালাচ্ছেন।
আরও জানুন
Interpreter
এপিআই সম্পর্কে আরও বিস্তারিত জানার জন্য, পাইথনে একটি মডেল লোড করুন এবং চালান পড়ুন।আপনার যদি রাস্পবেরি পাই থাকে তবে টেনসরফ্লো লাইট ব্যবহার করে রাস্পবেরি পাইতে কীভাবে অবজেক্ট ডিটেকশন চালানো যায় সে সম্পর্কে একটি ভিডিও সিরিজ দেখুন।
আপনি যদি একটি কোরাল এমএল অ্যাক্সিলারেটর ব্যবহার করেন, GitHub-এ প্রবাল উদাহরণগুলি দেখুন ।
অন্যান্য টেনসরফ্লো মডেলগুলিকে টেনসরফ্লো লাইটে রূপান্তর করতে, টেনসরফ্লো লাইট কনভার্টার সম্পর্কে পড়ুন।
আপনি যদি tflite_runtime হুইল তৈরি করতে চান, বিল্ড
tflite_runtime
লাইট পাইথন হুইল প্যাকেজ পড়ুন