पायथन के साथ TensorFlow Lite का उपयोग लिनक्स पर आधारित एम्बेडेड उपकरणों के लिए बहुत अच्छा है, जैसे कि रास्पबेरी पाई और एज टीपीयू के साथ कोरल डिवाइस , कई अन्य के बीच।
यह पृष्ठ दिखाता है कि आप कुछ ही मिनटों में पायथन के साथ TensorFlow Lite मॉडल कैसे चलाना शुरू कर सकते हैं। आपको बस एक TensorFlow मॉडल चाहिए जो TensorFlow Lite में परिवर्तित हो जाए । (यदि आपने अभी तक कोई मॉडल परिवर्तित नहीं किया है, तो आप नीचे दिए गए उदाहरण के साथ दिए गए मॉडल का उपयोग करके प्रयोग कर सकते हैं।)
TensorFlow Lite रनटाइम पैकेज के बारे में
पायथन के साथ TensorFlow Lite मॉडल को जल्दी से निष्पादित करना शुरू करने के लिए, आप सभी TensorFlow पैकेजों के बजाय केवल TensorFlow Lite दुभाषिया स्थापित कर सकते हैं। हम इस सरलीकृत पायथन पैकेज tflite_runtime
।
tflite_runtime
पैकेज पूर्ण tensorflow
पैकेज के आकार का एक अंश है और इसमें TensorFlow Lite-मुख्य रूप से Interpreter
पायथन वर्ग के साथ अनुमानों को चलाने के लिए आवश्यक न्यूनतम कोड शामिल है। यह छोटा पैकेज तब आदर्श होता है जब आप केवल .tflite
मॉडल निष्पादित करना चाहते हैं और बड़ी TensorFlow लाइब्रेरी के साथ डिस्क स्थान बर्बाद करने से बचना चाहते हैं।
पायथन के लिए TensorFlow लाइट स्थापित करें
आप लिनक्स पर पाइप के साथ स्थापित कर सकते हैं:
python3 -m pip install tflite-runtime
समर्थित प्लेटफॉर्म
tflite-runtime
Python पहिए पूर्व-निर्मित हैं और इन प्लेटफार्मों के लिए प्रदान किए गए हैं:
- Linux armv7l (जैसे रास्पबेरी पाई 2, 3, 4 और ज़ीरो 2 रास्पबेरी पाई ओएस 32-बिट चल रहा है)
- Linux aarch64 (जैसे रास्पबेरी पाई 3, 4 डेबियन ARM64 चल रहा है)
- लिनक्स x86_64
यदि आप अन्य प्लेटफॉर्म पर TensorFlow Lite मॉडल चलाना चाहते हैं, तो आपको या तो पूर्ण TensorFlow पैकेज का उपयोग करना चाहिए, या स्रोत से tflite-runtime पैकेज बनाना चाहिए ।
यदि आप कोरल एज टीपीयू के साथ TensorFlow का उपयोग कर रहे हैं, तो आपको इसके बजाय उपयुक्त कोरल सेटअप दस्तावेज़ का पालन करना चाहिए।
Tflite_runtime . का उपयोग करके एक अनुमान चलाएँ
tensorflow
मॉड्यूल से Interpreter
आयात करने के बजाय, अब आपको इसे tflite_runtime
से आयात करने की आवश्यकता है।
उदाहरण के लिए, ऊपर दिए गए पैकेज को स्थापित करने के बाद, label_image.py
.py फ़ाइल की प्रतिलिपि बनाएँ और चलाएँ। यह (शायद) विफल हो जाएगा क्योंकि आपके पास tensorflow
लाइब्रेरी स्थापित नहीं है। इसे ठीक करने के लिए, फ़ाइल की इस पंक्ति को संपादित करें:
import tensorflow as tf
तो यह इसके बजाय पढ़ता है:
import tflite_runtime.interpreter as tflite
और फिर इस लाइन को बदलें:
interpreter = tf.lite.Interpreter(model_path=args.model_file)
तो यह पढ़ता है:
interpreter = tflite.Interpreter(model_path=args.model_file)
अब label_image.py
.py फिर से चलाएँ। इतना ही! अब आप TensorFlow Lite मॉडल निष्पादित कर रहे हैं।
और अधिक जानें
Interpreter
एपीआई के बारे में अधिक जानकारी के लिए, लोड पढ़ें और पायथन में एक मॉडल चलाएं ।यदि आपके पास रास्पबेरी पाई है, तो टेंसरफ्लो लाइट का उपयोग करके रास्पबेरी पाई पर ऑब्जेक्ट डिटेक्शन को चलाने के तरीके के बारे में एक वीडियो श्रृंखला देखें।
यदि आप एक कोरल एमएल एक्सेलेरेटर का उपयोग कर रहे हैं, तो गिटहब पर कोरल उदाहरण देखें ।
अन्य TensorFlow मॉडल को TensorFlow Lite में बदलने के लिए, TensorFlow Lite Converter के बारे में पढ़ें।
यदि आप
tflite_runtime
व्हील बनाना चाहते हैं, तो Build TensorFlow Lite Python Wheel Package पढ़ें
पायथन के साथ TensorFlow Lite का उपयोग लिनक्स पर आधारित एम्बेडेड उपकरणों के लिए बहुत अच्छा है, जैसे कि रास्पबेरी पाई और एज टीपीयू के साथ कोरल डिवाइस , कई अन्य के बीच।
यह पृष्ठ दिखाता है कि आप कुछ ही मिनटों में पायथन के साथ TensorFlow Lite मॉडल कैसे चलाना शुरू कर सकते हैं। आपको बस एक TensorFlow मॉडल चाहिए जो TensorFlow Lite में परिवर्तित हो जाए । (यदि आपने अभी तक कोई मॉडल परिवर्तित नहीं किया है, तो आप नीचे दिए गए उदाहरण के साथ दिए गए मॉडल का उपयोग करके प्रयोग कर सकते हैं।)
TensorFlow Lite रनटाइम पैकेज के बारे में
पायथन के साथ TensorFlow Lite मॉडल को जल्दी से निष्पादित करना शुरू करने के लिए, आप सभी TensorFlow पैकेजों के बजाय केवल TensorFlow Lite दुभाषिया स्थापित कर सकते हैं। हम इस सरलीकृत पायथन पैकेज tflite_runtime
।
tflite_runtime
पैकेज पूर्ण tensorflow
पैकेज के आकार का एक अंश है और इसमें TensorFlow Lite-मुख्य रूप से Interpreter
पायथन वर्ग के साथ अनुमानों को चलाने के लिए आवश्यक न्यूनतम कोड शामिल है। यह छोटा पैकेज तब आदर्श होता है जब आप केवल .tflite
मॉडल निष्पादित करना चाहते हैं और बड़ी TensorFlow लाइब्रेरी के साथ डिस्क स्थान बर्बाद करने से बचना चाहते हैं।
पायथन के लिए TensorFlow लाइट स्थापित करें
आप लिनक्स पर पाइप के साथ स्थापित कर सकते हैं:
python3 -m pip install tflite-runtime
समर्थित प्लेटफॉर्म
tflite-runtime
Python पहिए पूर्व-निर्मित हैं और इन प्लेटफार्मों के लिए प्रदान किए गए हैं:
- Linux armv7l (जैसे रास्पबेरी पाई 2, 3, 4 और ज़ीरो 2 रास्पबेरी पाई ओएस 32-बिट चल रहा है)
- Linux aarch64 (जैसे रास्पबेरी पाई 3, 4 डेबियन ARM64 चल रहा है)
- लिनक्स x86_64
यदि आप अन्य प्लेटफॉर्म पर TensorFlow Lite मॉडल चलाना चाहते हैं, तो आपको या तो पूर्ण TensorFlow पैकेज का उपयोग करना चाहिए, या स्रोत से tflite-runtime पैकेज बनाना चाहिए ।
यदि आप कोरल एज टीपीयू के साथ TensorFlow का उपयोग कर रहे हैं, तो आपको इसके बजाय उपयुक्त कोरल सेटअप दस्तावेज़ का पालन करना चाहिए।
Tflite_runtime . का उपयोग करके एक अनुमान चलाएँ
tensorflow
मॉड्यूल से Interpreter
आयात करने के बजाय, अब आपको इसे tflite_runtime
से आयात करने की आवश्यकता है।
उदाहरण के लिए, ऊपर दिए गए पैकेज को स्थापित करने के बाद, label_image.py
.py फ़ाइल की प्रतिलिपि बनाएँ और चलाएँ। यह (शायद) विफल हो जाएगा क्योंकि आपके पास tensorflow
लाइब्रेरी स्थापित नहीं है। इसे ठीक करने के लिए, फ़ाइल की इस पंक्ति को संपादित करें:
import tensorflow as tf
तो यह इसके बजाय पढ़ता है:
import tflite_runtime.interpreter as tflite
और फिर इस लाइन को बदलें:
interpreter = tf.lite.Interpreter(model_path=args.model_file)
तो यह पढ़ता है:
interpreter = tflite.Interpreter(model_path=args.model_file)
अब label_image.py
.py फिर से चलाएँ। इतना ही! अब आप TensorFlow Lite मॉडल निष्पादित कर रहे हैं।
और अधिक जानें
Interpreter
एपीआई के बारे में अधिक जानकारी के लिए, लोड पढ़ें और पायथन में एक मॉडल चलाएं ।यदि आपके पास रास्पबेरी पाई है, तो टेंसरफ्लो लाइट का उपयोग करके रास्पबेरी पाई पर ऑब्जेक्ट डिटेक्शन को चलाने के तरीके के बारे में एक वीडियो श्रृंखला देखें।
यदि आप एक कोरल एमएल एक्सेलेरेटर का उपयोग कर रहे हैं, तो गिटहब पर कोरल उदाहरण देखें ।
अन्य TensorFlow मॉडल को TensorFlow Lite में बदलने के लिए, TensorFlow Lite Converter के बारे में पढ़ें।
यदि आप
tflite_runtime
व्हील बनाना चाहते हैं, तो Build TensorFlow Lite Python Wheel Package पढ़ें