TensorFlow Lite

TensorFlow Lite एक उपकरण है जो डेवलपर्स को मोबाइल, एम्बेडेड और IoL डिवाइस पर अपने मॉडल चलाने में मदद करके ऑन-डिवाइस मशीन सीखने में सक्षम है।

प्रमुख विशेषताऐं

  • 5 प्रमुख बाधाओं को संबोधित करके, ऑन-डिवाइस मशीन लर्निंग के लिए अनुकूलित : विलंबता (सर्वर पर कोई राउंड-ट्रिप नहीं है), गोपनीयता (कोई व्यक्तिगत डेटा डिवाइस को नहीं छोड़ता), कनेक्टिविटी (इंटरनेट कनेक्टिविटी की आवश्यकता नहीं है), आकार (कम किए गए मॉडल और बाइनरी आकार) और बिजली की खपत (कुशल कनेक्शन और नेटवर्क कनेक्शन की कमी)।
  • एंड्रॉइड और आईओएस डिवाइस, एम्बेडेड लिनक्स , और माइक्रोकंट्रोलर को कवर करते हुए मल्टीपल प्लेटफॉर्म सपोर्ट
  • विविध भाषा समर्थन , जिसमें जावा, स्विफ्ट, ऑब्जेक्टिव-सी, सी ++ और पायथन शामिल हैं।
  • उच्च प्रदर्शन , हार्डवेयर त्वरण और मॉडल अनुकूलन के साथ
  • एंड-टू-एंड उदाहरण , सामान्य मशीन लर्निंग कार्यों जैसे कि कई प्लेटफार्मों पर छवि वर्गीकरण, वस्तु का पता लगाने, मुद्रा अनुमान, प्रश्न उत्तर, पाठ वर्गीकरण आदि के लिए।

विकास संबंधी कार्य

निम्नलिखित गाइड वर्कफ़्लो के प्रत्येक चरण के माध्यम से चलता है और आगे के निर्देशों के लिए लिंक प्रदान करता है:

1. एक TensorFlow Lite मॉडल बनाएं

एक TensorFlow Lite मॉडल को फ्लैटबफर्स ( .tflite एक्सटेंशन एक्सटेंशन द्वारा पहचाना गया) के रूप में जाना जाता है एक विशेष कुशल पोर्टेबल प्रारूप में दर्शाया गया है। यह TensorFlow के प्रोटोकॉल बफर मॉडल फॉर्मेट में कई फायदे प्रदान करता है जैसे कि कम आकार (छोटा कोड फुटप्रिंट) और तेज इंट्रेंस (डेटा को अतिरिक्त पार्सिंग / अनपैकिंग चरण के बिना सीधे एक्सेस किया जाता है) जो TensorFlow Lite को सीमित कंप्यूट और मेमोरी संसाधनों वाले उपकरणों पर कुशलतापूर्वक क्रियान्वित करने में सक्षम बनाता है। ।

TensorFlow Lite मॉडल में वैकल्पिक रूप से मेटाडेटा शामिल हो सकता है जिसमें ऑन-डिवाइस इंट्रेंस के दौरान प्री-और पोस्ट-प्रोसेसिंग पाइपलाइनों की स्वचालित पीढ़ी के लिए मानव-पठनीय मॉडल विवरण और मशीन-पठनीय डेटा है। अधिक जानकारी के लिए मेटाडेटा जोड़ें

आप निम्नलिखित तरीकों से TensorFlow Lite मॉडल तैयार कर सकते हैं:

  • मौजूदा TensorFlow Lite मॉडल का उपयोग करें: मौजूदा मॉडल को चुनने के लिए TensorFlow Lite उदाहरण देखें। मॉडल में मेटाडेटा शामिल हो सकता है या नहीं भी हो सकता है।

  • एक TensorFlow Lite मॉडल बनाएँ: अपने स्वयं के कस्टम डेटासेट के साथ एक मॉडल बनाने के लिए TensorFlow Lite मॉडल निर्माता का उपयोग करें। डिफ़ॉल्ट रूप से, सभी मॉडलों में मेटाडेटा होता है।

  • TensorFlow Lite मॉडल में एक TensorFlow मॉडल में कनवर्ट करें : TensorFlow Lite मॉडल को TensorFlow Lite मॉडल में बदलने के लिए TensorFlow Lite कनवर्टर का उपयोग करें। रूपांतरण के दौरान, आप मॉडल के आकार को कम करने के लिए परिमाणीकरण जैसे अनुकूलन लागू कर सकते हैं और सटीकता में कम या कोई हानि नहीं कर सकते हैं। डिफ़ॉल्ट रूप से, सभी मॉडलों में मेटाडेटा शामिल नहीं है।

2. दौड़ना

निष्कर्ष पर इस उपकरण में एक TensorFlow लाइट मॉडल को क्रियान्वित करने इनपुट डेटा के आधार पर अनुमान लगाने के लिए की प्रक्रिया को दर्शाता है। आप मॉडल प्रकार के आधार पर निम्नलिखित तरीकों से निष्कर्ष निकाल सकते हैं:

Android और iOS उपकरणों पर, आप हार्डवेयर त्वरण का उपयोग करके प्रदर्शन में सुधार कर सकते हैं। किसी भी प्लेटफ़ॉर्म पर आप GPU डेलिगेट का उपयोग कर सकते हैं, Android पर आप NNAPI डेलिगेट (नए उपकरणों के लिए) या हेक्सागोन डेलिगेट (पुराने उपकरणों पर) का उपयोग कर सकते हैं और iOS पर आप कोर एमएल प्रतिनिधि का उपयोग कर सकते हैं। नए हार्डवेयर त्वरक के लिए समर्थन जोड़ने के लिए, आप अपने स्वयं के प्रतिनिधि को परिभाषित कर सकते हैं

शुरू हो जाओ

आप अपने लक्ष्य डिवाइस के आधार पर निम्नलिखित गाइड का उल्लेख कर सकते हैं:

तकनीकी बाधाओं

  • सभी TensorFlow मॉडल TensorFlow Lite मॉडल में परिवर्तित नहीं किए जा सकते , ऑपरेटर संगतता को देखें।

  • असमर्थित ऑन-डिवाइस प्रशिक्षण , हालांकि यह हमारे रोडमैप पर है