Google I/O एक लपेट है! TensorFlow सत्रों पर पकड़ बनाएं सत्र देखें

ट्रांसफर लर्निंग क्या है?

परिष्कृत गहन शिक्षण मॉडल में लाखों पैरामीटर (वजन) होते हैं और उन्हें खरोंच से प्रशिक्षित करने के लिए अक्सर कंप्यूटिंग संसाधनों के बड़ी मात्रा में डेटा की आवश्यकता होती है। ट्रांसफर लर्निंग एक ऐसी तकनीक है जो एक मॉडल के एक टुकड़े को ले कर बहुत कुछ शॉर्टकट करती है जिसे पहले से ही संबंधित कार्य पर प्रशिक्षित किया गया है और इसे नए मॉडल में पुन: उपयोग किया जाता है।

उदाहरण के लिए, इस अनुभाग में अगला ट्यूटोरियल आपको दिखाएगा कि आप अपनी स्वयं की छवि पहचानकर्ता का निर्माण कैसे करें जो एक मॉडल का लाभ उठाती है जो पहले से ही छवियों के भीतर विभिन्न प्रकार की वस्तुओं को पहचानने के लिए प्रशिक्षित थी। आप मूल मॉडल की तुलना में बहुत कम प्रशिक्षण डेटा का उपयोग करके अपनी स्वयं की छवि कक्षाओं का पता लगाने के लिए पूर्व-प्रशिक्षित मॉडल में मौजूदा ज्ञान को अनुकूलित कर सकते हैं।

यह तेजी से नए मॉडल विकसित करने के साथ-साथ ब्राउज़रों और मोबाइल उपकरणों जैसे संसाधनों के संरक्षण के वातावरण में मॉडल को अनुकूलित करने के लिए उपयोगी है।

अधिकांश बार जब ट्रांसफर लर्निंग करते हैं, तो हम मूल मॉडल के वजन को समायोजित नहीं करते हैं। इसके बजाय हम अंतिम परत को हटाते हैं और काटे गए मॉडल के आउटपुट के शीर्ष पर एक नया (अक्सर काफी उथला) मॉडल प्रशिक्षित करते हैं। यह वह तकनीक है जिसे आप इस अनुभाग में ट्यूटोरियल में प्रदर्शित होते देखेंगे।