مؤتمر Google I / O هو التفاف! تابع جلسات TensorFlow اعرض الجلسات

دليل منظمة العفو الدولية المسؤولة TensorFlow

في عام 2018 ، قدمت Google مبادئ الذكاء الاصطناعي الخاصة بها ، والتي توجه التطوير الأخلاقي للذكاء الاصطناعي واستخدامه في البحث والمنتجات. تماشياً مع هذه المبادئ ، يعمل فريق TensorFlow على تزويد المطورين بالأدوات والتقنيات للالتزام بممارسات الذكاء الاصطناعي المسؤول (RAI).

في هذا الدليل ، ستجد إرشادات حول كيفية تطبيق الأدوات في مجموعة أدوات الذكاء الاصطناعي المسؤولة لتطوير سير عمل متماسك يخدم حالة الاستخدام الخاصة بك واحتياجات المنتج. تتضمن الأدوات الموجودة في هذا الدليل الأدوات التي يمكن تطبيقها في مجالات مثل الإنصاف والشفافية . يعد هذا مجالًا نشطًا للتطوير في Google ، ويمكنك أن تتوقع أن يتضمن هذا الدليل إرشادات لمجالات إضافية ذات صلة ، مثل الخصوصية وإمكانية الشرح والمتانة.

منظمة الدليل

لكل أداة ، يتم توفير إرشادات حول ما تفعله الأداة ، والمكان المناسب في سير العمل الخاص بك ، واعتبارات الاستخدام المختلفة الخاصة بها. حيثما أمكن ، يتم تضمين صفحة "التثبيت" في علامة التبويب "الدليل" لكل أداة ، ووثائق API التفصيلية في علامة التبويب "API". بالنسبة لبعض الأدوات ، يتم توفير أدلة فنية توضح المفاهيم التي قد يجدها المستخدمون صعبة عند تطبيقها.

كلما كان ذلك ممكنًا ، يتم توفير البرامج التعليمية الخاصة بأجهزة الكمبيوتر المحمولة التي توضح كيفية تطبيق الأدوات الموجودة في مجموعة أدوات RAI. هذه أمثلة على لعبة تم اختيارها لإلقاء الضوء على أداة معينة. إذا كانت لديك أسئلة حول هذه الأسئلة ، أو إذا كانت هناك حالات استخدام إضافية ترغب في استكشافها ، فيرجى التواصل مع فريق TensorFlow RAI على tf-responsible-ai@google.com .

يمكن أن تساعدك البرامج التعليمية التالية على البدء باستخدام أدوات لتقييم نموذج الإنصاف ومعالجته.

مقدمة لمؤشرات الإنصاف التي تعمل في جهاز كمبيوتر محمول من نوع Google Colab. انقر فوق الزر " تشغيل في Google Colab" لتجربته بنفسك.
قم بتطبيق مؤشرات الإنصاف لتقييم مقاييس الإنصاف شائعة الاستخدام في نماذج TF Hub Text Embedding باستخدام مجموعة بيانات التعليقات المدنية .
قم بتطبيق مؤشرات الإنصاف لفحص مخاوف الإنصاف في مجموعة بيانات كومباس .
جرّب MinDiff ، وهو أسلوب معالجة نموذجي يمكنه تحسين أداء النموذج عبر مقاييس الإنصاف شائعة الاستخدام.
استخدم Model Card Toolkit مع TFX لإنشاء بطاقات طراز .
قم بتقييم خصوصية نموذجك باستخدام تقرير خصوصية TF.

اعتبارات إضافية

يتطلب تصميم سير عمل مسؤول للذكاء الاصطناعي نهجًا مدروسًا في كل مرحلة من مراحل دورة حياة التعلم الآلي ، من صياغة المشكلة إلى النشر والمراقبة. بالإضافة إلى تفاصيل التنفيذ الفني الخاص بك ، سوف تحتاج إلى اتخاذ مجموعة متنوعة من القرارات الاجتماعية التقنية من أجل تطبيق هذه الأدوات. تتضمن بعض اعتبارات اليود المشع الشائعة التي يحتاج ممارسو ML إلى القيام بها ما يلي:

  • عبر أي فئات ديموغرافية أحتاج للتأكد من أن نموذجي يعمل بشكل جيد؟
  • إذا كان لا بد لي من تخزين الملصقات الحساسة من أجل إجراء تقييم الإنصاف ، فكيف يجب أن أفكر في المفاضلة بين الإنصاف والخصوصية؟
  • ما المقاييس أو التعريفات التي يجب أن أستخدمها لتقييم الإنصاف؟
  • ما المعلومات التي يجب أن أدرجها في نموذجي وعناصر شفافية البيانات؟

تعتمد الإجابات على هذه الأسئلة والعديد من الأسئلة الأخرى على حالة الاستخدام المحددة واحتياجات المنتج. على هذا النحو ، لا يمكننا إخبارك بالضبط بما يجب القيام به ، ولكننا سنقدم إرشادات لاتخاذ قرارات مسؤولة ، مع نصائح وروابط مفيدة لأساليب البحث ذات الصلة كلما أمكن ذلك. أثناء قيامك بتطوير سير عمل AI المسؤول الخاص بك باستخدام TensorFlow ، يرجى تقديم التعليقات على tf-responsible-ai@google.com . يعد فهم ما تعلمته وتحدياتك أمرًا بالغ الأهمية لقدرتنا على بناء منتجات تناسب الجميع.