अक्सर पूछे जाने वाले प्रश्न

यदि आपको यहां अपने प्रश्न का उत्तर नहीं मिलता है, तो कृपया विषय के लिए हमारे विस्तृत दस्तावेज़ देखें या GitHub समस्या दर्ज करें।

मॉडल रूपांतरण

TensorFlow से TensorFlow Lite में रूपांतरण के लिए कौन से प्रारूप समर्थित हैं?

समर्थित प्रारूप यहां सूचीबद्ध हैं

TensorFlow Lite में कुछ ऑपरेशन क्यों लागू नहीं किए गए हैं?

टीएफलाइट को हल्का बनाए रखने के लिए, टीएफलाइट में केवल कुछ टीएफ ऑपरेटरों ( अनुमति सूची में सूचीबद्ध) का समर्थन किया जाता है।

मेरा मॉडल परिवर्तित क्यों नहीं होता?

चूँकि TensorFlow Lite संचालन की संख्या TensorFlow की तुलना में कम है, इसलिए कुछ मॉडल परिवर्तित करने में सक्षम नहीं हो सकते हैं। कुछ सामान्य त्रुटियाँ यहाँ सूचीबद्ध हैं।

उन रूपांतरण मुद्दों के लिए जो लापता संचालन या नियंत्रण प्रवाह ऑप्स से संबंधित नहीं हैं, हमारे GitHub मुद्दों को खोजें या एक नया फ़ाइल करें।

मैं कैसे परीक्षण करूं कि TensorFlow Lite मॉडल मूल TensorFlow मॉडल के समान ही व्यवहार करता है?

परीक्षण करने का सबसे अच्छा तरीका समान इनपुट (परीक्षण डेटा या यादृच्छिक इनपुट) के लिए TensorFlow और TensorFlow Lite मॉडल के आउटपुट की तुलना करना है जैसा कि यहां दिखाया गया है।

मैं ग्राफ़डेफ़ प्रोटोकॉल बफ़र के लिए इनपुट/आउटपुट कैसे निर्धारित करूं?

.pb फ़ाइल से ग्राफ़ का निरीक्षण करने का सबसे आसान तरीका नेट्रॉन का उपयोग करना है, जो मशीन लर्निंग मॉडल के लिए एक ओपन-सोर्स व्यूअर है।

यदि नेट्रॉन ग्राफ़ नहीं खोल सकता है, तो आप summarize_graph टूल आज़मा सकते हैं।

यदि summarize_graph टूल कोई त्रुटि उत्पन्न करता है, तो आप TensorBoard के साथ GraphDef की कल्पना कर सकते हैं और ग्राफ़ में इनपुट और आउटपुट देख सकते हैं। .pb फ़ाइल को विज़ुअलाइज़ करने के लिए, नीचे दी गई import_pb_to_tensorboard.py स्क्रिप्ट का उपयोग करें:

python import_pb_to_tensorboard.py --model_dir <model path> --log_dir <log dir path>

मैं .tflite फ़ाइल का निरीक्षण कैसे करूँ?

नेट्रॉन टेन्सरफ्लो लाइट मॉडल की कल्पना करने का सबसे आसान तरीका है।

यदि नेट्रॉन आपका TensorFlow Lite मॉडल नहीं खोल सकता है, तो आप हमारे रिपॉजिटरी में Visualize.py स्क्रिप्ट आज़मा सकते हैं।

यदि आप टीएफ 2.5 या बाद के संस्करण का उपयोग कर रहे हैं

python -m tensorflow.lite.tools.visualize model.tflite visualized_model.html

अन्यथा, आप इस स्क्रिप्ट को बेज़ेल के साथ चला सकते हैं

bazel run //tensorflow/lite/tools:visualize model.tflite visualized_model.html

अनुकूलन

मैं अपने परिवर्तित TensorFlow Lite मॉडल का आकार कैसे कम करूँ?

मॉडल के आकार को कम करने के लिए टेन्सरफ्लो लाइट में रूपांतरण के दौरान प्रशिक्षण के बाद परिमाणीकरण का उपयोग किया जा सकता है। प्रशिक्षण के बाद का परिमाणीकरण फ़्लोटिंग-पॉइंट से 8-बिट परिशुद्धता तक वज़न को परिमाणित करता है और फ़्लोटिंग पॉइंट गणना करने के लिए रनटाइम के दौरान उन्हें डिक्वांटाइज़ करता है। हालाँकि, ध्यान दें कि इसके कुछ सटीकता निहितार्थ हो सकते हैं।

यदि मॉडल को पुनः प्रशिक्षित करना एक विकल्प है, तो क्वांटाइज़ेशन-जागरूक प्रशिक्षण पर विचार करें। हालाँकि, ध्यान दें कि परिमाणीकरण-जागरूक प्रशिक्षण केवल कन्वेन्शनल न्यूरल नेटवर्क आर्किटेक्चर के सबसेट के लिए उपलब्ध है।

विभिन्न अनुकूलन विधियों की गहरी समझ के लिए, मॉडल अनुकूलन देखें।

मैं अपने मशीन लर्निंग कार्य के लिए TensorFlow Lite प्रदर्शन को कैसे अनुकूलित करूं?

TensorFlow Lite के प्रदर्शन को अनुकूलित करने की उच्च-स्तरीय प्रक्रिया कुछ इस तरह दिखती है:

  • सुनिश्चित करें कि आपके पास कार्य के लिए सही मॉडल है। छवि वर्गीकरण के लिए, TensorFlow हब देखें।
  • धागों की संख्या घटाएँ. कई TensorFlow Lite ऑपरेटर मल्टी-थ्रेडेड कर्नेल का समर्थन करते हैं। ऐसा करने के लिए आप C++ API में SetNumThreads() उपयोग कर सकते हैं। हालाँकि, थ्रेड्स बढ़ने से वातावरण के आधार पर प्रदर्शन में परिवर्तनशीलता आती है।
  • हार्डवेयर एक्सेलेरेटर का उपयोग करें। TensorFlow Lite प्रतिनिधियों का उपयोग करके विशिष्ट हार्डवेयर के लिए मॉडल त्वरण का समर्थन करता है। कौन से त्वरक समर्थित हैं और डिवाइस पर अपने मॉडल के साथ उनका उपयोग कैसे करें, इसकी जानकारी के लिए हमारी प्रतिनिधि मार्गदर्शिका देखें।
  • (उन्नत) प्रोफ़ाइल मॉडल। टेन्सरफ्लो लाइट बेंचमार्किंग टूल में एक अंतर्निहित प्रोफाइलर है जो प्रति-ऑपरेटर आंकड़े दिखा सकता है। यदि आप जानते हैं कि आप अपने विशिष्ट प्लेटफ़ॉर्म के लिए किसी ऑपरेटर के प्रदर्शन को कैसे अनुकूलित कर सकते हैं, तो आप एक कस्टम ऑपरेटर लागू कर सकते हैं।

प्रदर्शन को अनुकूलित करने के तरीके पर अधिक गहन चर्चा के लिए, सर्वोत्तम प्रथाओं पर एक नज़र डालें।