TensorFlow जिम्मेदार एआई गाइडबुक

2018 में, Google ने अपने AI सिद्धांत पेश किए, जो अनुसंधान और उत्पादों में AI के नैतिक विकास और उपयोग का मार्गदर्शन करते हैं। इन सिद्धांतों के अनुरूप, TensorFlow टीम डेवलपर्स को जिम्मेदार AI (RAI) प्रथाओं का पालन करने के लिए उपकरण और तकनीक प्रदान करने के लिए काम करती है।

इस गाइडबुक में, आपको रिस्पॉन्सिबल एआई टूलकिट में टूल्स को लागू करने के तरीके के बारे में मार्गदर्शन मिलेगा, जो आपके विशिष्ट उपयोग के मामले और उत्पाद की जरूरतों को पूरा करने वाला एक सुसंगत वर्कफ़्लो विकसित करता है। इस गाइडबुक के टूल्स में वे शामिल हैं जिन्हें निष्पक्षता और पारदर्शिता जैसे डोमेन में लागू किया जा सकता है। यह Google में विकास का एक सक्रिय क्षेत्र है, और आप उम्मीद कर सकते हैं कि इस गाइडबुक में अतिरिक्त संबंधित क्षेत्रों, जैसे गोपनीयता , व्याख्यात्मकता और मजबूती के लिए मार्गदर्शन शामिल होगा।

गाइडबुक संगठन

प्रत्येक उपकरण के लिए, उपकरण क्या करता है, आपके कार्यप्रवाह में यह कहां फिट हो सकता है, और इसके विभिन्न उपयोग संबंधी विचारों के बारे में मार्गदर्शन प्रदान किया जाता है। जहां लागू हो, प्रत्येक टूल के लिए "गाइड" टैब में "इंस्टॉल करें" पृष्ठ शामिल किया गया है, और "एपीआई" टैब में विस्तृत एपीआई दस्तावेज़ीकरण शामिल है। कुछ टूल के लिए, तकनीकी मार्गदर्शिकाएं प्रदान की जाती हैं जो उन अवधारणाओं को प्रदर्शित करती हैं जो उपयोगकर्ताओं को उन्हें लागू करते समय चुनौतीपूर्ण लग सकती हैं।

जब भी संभव हो, नोटबुक ट्यूटोरियल प्रदान किए जाते हैं जो दिखाते हैं कि आरएआई टूलकिट में टूल कैसे लागू किए जा सकते हैं। ये आम तौर पर एक विशिष्ट उपकरण पर स्पॉटलाइट डालने के लिए चुने गए खिलौनों के उदाहरण हैं। यदि इनके बारे में आपके कोई प्रश्न हैं, या यदि अतिरिक्त उपयोग के मामले हैं जिन्हें आप एक्सप्लोर करना चाहते हैं, तो कृपया tf-responsible-ai@google.com पर TensorFlow RAI टीम से संपर्क करें।

निम्नलिखित ट्यूटोरियल आपको मॉडल निष्पक्षता मूल्यांकन और उपचार के लिए टूल के साथ आरंभ कर सकते हैं।

Google Colab नोटबुक में चलने वाले निष्पक्षता संकेतकों का परिचय। इसे स्वयं आज़माने के लिए Google Colab में चलाएँ बटन पर क्लिक करें।
टीएफ हब टेक्स्ट एंबेडिंग मॉडल में सिविल कमेंट्स डेटासेट का उपयोग करके आमतौर पर उपयोग किए जाने वाले फेयरनेस मेट्रिक्स का मूल्यांकन करने के लिए फेयरनेस इंडिकेटर्स लागू करें।
COMPAS डेटासेट में निष्पक्षता संबंधी चिंताओं की जांच करने के लिए निष्पक्षता संकेतक लागू करें।
MinDiff, एक मॉडल उपचार तकनीक का प्रयास करें जो आमतौर पर उपयोग किए जाने वाले निष्पक्षता मेट्रिक्स में मॉडल के प्रदर्शन में सुधार कर सकती है।
मॉडल कार्ड बनाने के लिए TFX के साथ मॉडल कार्ड टूलकिट का उपयोग करें।
TF गोपनीयता रिपोर्ट का उपयोग करके अपने मॉडल की गोपनीयता का आकलन करें।

अतिरिक्त मुद्दो पर विचार करना

एक जिम्मेदार एआई वर्कफ़्लो को डिज़ाइन करने के लिए समस्या निर्माण से लेकर परिनियोजन और निगरानी तक, एमएल जीवनचक्र के प्रत्येक चरण में एक विचारशील दृष्टिकोण की आवश्यकता होती है। अपने तकनीकी कार्यान्वयन के विवरण से परे, आपको इन उपकरणों को लागू करने के लिए विभिन्न प्रकार के सामाजिक-तकनीकी निर्णय लेने होंगे। कुछ सामान्य आरएआई विचार जो एमएल चिकित्सकों को बनाने की आवश्यकता है उनमें शामिल हैं:

  • यह सुनिश्चित करने के लिए कि मेरा मॉडल अच्छा प्रदर्शन करे, मुझे किन जनसांख्यिकीय श्रेणियों की आवश्यकता है?
  • यदि मुझे निष्पक्षता मूल्यांकन करने के लिए संवेदनशील लेबलों को संग्रहीत करना चाहिए, तो मुझे निष्पक्षता और गोपनीयता के बीच व्यापार-बंद पर कैसे विचार करना चाहिए?
  • निष्पक्षता का मूल्यांकन करने के लिए मुझे किन मीट्रिक या परिभाषाओं का उपयोग करना चाहिए?
  • मुझे अपने मॉडल और डेटा पारदर्शिता कलाकृतियों में कौन सी जानकारी शामिल करनी चाहिए?

इन और कई अन्य सवालों के जवाब आपके विशिष्ट उपयोग के मामले और उत्पाद की जरूरतों पर निर्भर करते हैं। इस प्रकार, हम आपको यह नहीं बता सकते कि क्या करना है, लेकिन जब भी संभव हो, प्रासंगिक शोध विधियों के लिए उपयोगी सुझावों और लिंक के साथ जिम्मेदार निर्णय लेने के लिए मार्गदर्शन प्रदान करेंगे। जैसे ही आप TensorFlow के साथ अपना जिम्मेदार AI वर्कफ़्लो विकसित करते हैं, कृपया tf-responsible-ai@google.com पर फ़ीडबैक प्रदान करें। सभी के लिए काम करने वाले उत्पादों के निर्माण की हमारी क्षमता के लिए आपकी सीख और चुनौतियों को समझना महत्वपूर्ण है।