इस पेज का अनुवाद Cloud Translation API से किया गया है.
Switch to English

ट्रांसफर लर्निंग क्या है?

परिष्कृत गहन शिक्षण मॉडल में लाखों पैरामीटर (वजन) होते हैं और उन्हें खरोंच से प्रशिक्षित करने के लिए अक्सर कंप्यूटिंग संसाधनों की बड़ी मात्रा में डेटा की आवश्यकता होती है। ट्रांसफर लर्निंग एक ऐसी तकनीक है जो एक मॉडल के एक टुकड़े को ले कर बहुत कुछ शॉर्टकट करती है जिसे पहले से ही संबंधित कार्य पर प्रशिक्षित किया गया है और इसे नए मॉडल में पुन: उपयोग किया जाता है।

उदाहरण के लिए, इस अनुभाग में अगला ट्यूटोरियल आपको दिखाएगा कि आप अपनी स्वयं की छवि पहचानकर्ता कैसे बना सकते हैं जो एक मॉडल का लाभ उठाती है जो छवियों के भीतर विभिन्न प्रकार की वस्तुओं को पहचानने के लिए पहले से ही प्रशिक्षित थी। आप मूल मॉडल की तुलना में बहुत कम प्रशिक्षण डेटा का उपयोग करके अपनी स्वयं की छवि कक्षाओं का पता लगाने के लिए पूर्व-प्रशिक्षित मॉडल में मौजूदा ज्ञान को अनुकूलित कर सकते हैं।

यह तेजी से नए मॉडल विकसित करने के साथ-साथ ब्राउज़रों और मोबाइल उपकरणों जैसे संसाधन के विपरीत वातावरण में मॉडल को अनुकूलित करने के लिए उपयोगी है।

ज्यादातर बार जब हम ट्रांसफर लर्निंग करते हैं, तो हम मूल मॉडल के वजन को समायोजित नहीं करते हैं। इसके बजाय हम अंतिम परत को हटाते हैं और काटे गए मॉडल के आउटपुट के शीर्ष पर एक नया (अक्सर काफी उथला) मॉडल प्रशिक्षित करते हैं। यह वह तकनीक है जिसे आप इस अनुभाग में ट्यूटोरियल में प्रदर्शित होते देखेंगे।