کتاب راهنمای هوش مصنوعی TensorFlow

در سال 2018، گوگل اصول هوش مصنوعی خود را معرفی کرد که توسعه اخلاقی و استفاده از هوش مصنوعی در تحقیقات و محصولات را هدایت می کند. در راستای این اصول، تیم TensorFlow تلاش می‌کند تا ابزارها و تکنیک‌هایی را در اختیار توسعه‌دهندگان قرار دهد تا به شیوه‌های هوش مصنوعی مسئول (RAI) پایبند باشند.

در این کتاب راهنما، راهنمایی در مورد نحوه استفاده از ابزارها در جعبه ابزار هوش مصنوعی مسئول برای ایجاد یک گردش کار منسجم که مورد استفاده خاص و نیازهای محصول شما را برآورده می کند، خواهید یافت. ابزارهای این کتاب راهنما شامل مواردی است که می تواند در حوزه هایی مانند عدالت و شفافیت به کار رود. این یک حوزه توسعه فعال در Google است، و می‌توانید انتظار داشته باشید که این کتاب راهنما شامل راهنمایی برای حوزه‌های مرتبط دیگر، مانند حریم خصوصی ، توضیح‌پذیری ، و استحکام باشد.

سازمان کتاب راهنما

برای هر ابزار، راهنمایی در مورد اینکه ابزار چه کاری انجام می دهد، جایی که ممکن است در جریان کاری شما قرار بگیرد و ملاحظات مختلف استفاده از آن ارائه می شود. در صورت لزوم، صفحه «نصب» در برگه «راهنما» برای هر ابزار، و مستندات API مفصل در برگه «API» گنجانده شده است. برای برخی از ابزارها، راهنماهای فنی ارائه شده است که مفاهیمی را نشان می دهد که کاربران ممکن است هنگام به کارگیری آنها چالش برانگیز باشند.

در صورت امکان، آموزش های نوت بوک ارائه می شود که نشان می دهد چگونه ابزارهای موجود در جعبه ابزار RAI را می توان اعمال کرد. اینها معمولاً نمونه های اسباب بازی هستند که برای جلب توجه یک ابزار خاص انتخاب می شوند. اگر در مورد این موارد سؤالی دارید، یا اگر موارد استفاده دیگری وجود دارد که می‌خواهید بررسی شود، لطفاً با تیم TensorFlow RAI در tf-responsible-ai@google.com تماس بگیرید .

آموزش های زیر می تواند شما را با ابزارهایی برای ارزیابی و اصلاح عادلانه مدل شروع کند.

مقدمه ای بر شاخص های انصاف که در نوت بوک Google Colab اجرا می شوند. روی دکمه Run in Google Colab کلیک کنید تا خودتان آن را امتحان کنید.
برای ارزیابی معیارهای عادلانه رایج در مدل‌های جاسازی متن TF Hub با استفاده از مجموعه داده نظرات Civil ، از شاخص‌های انصاف استفاده کنید.
برای بررسی نگرانی های مربوط به عدالت در مجموعه داده COMPAS ، از شاخص های انصاف استفاده کنید.
MinDiff را امتحان کنید، یک تکنیک اصلاح مدل که می‌تواند عملکرد مدل را در معیارهای عادلانه که معمولاً استفاده می‌شود، بهبود بخشد.
از جعبه ابزار مدل کارت با TFX برای تولید کارت های مدل استفاده کنید.
با استفاده از گزارش حریم خصوصی TF، حریم خصوصی مدل خود را ارزیابی کنید.

ملاحظات اضافی

طراحی یک گردش کار مسئولیت‌پذیر هوش مصنوعی مستلزم یک رویکرد متفکرانه در هر مرحله از چرخه حیات ML، از فرمول‌بندی مشکل تا استقرار و نظارت است. فراتر از جزئیات پیاده سازی فنی خود، برای به کارگیری این ابزارها باید تصمیمات اجتماعی و فنی مختلفی بگیرید. برخی از ملاحظات رایج RAI که پزشکان ML باید رعایت کنند عبارتند از:

  • برای اطمینان از عملکرد خوب مدلم در کدام دسته بندی جمعیتی نیاز دارم؟
  • اگر برای انجام ارزیابی عادلانه باید برچسب های حساس را ذخیره کنم، چگونه باید تعادل بین عدالت و حریم خصوصی را در نظر بگیرم؟
  • از چه معیارها یا تعاریفی برای ارزیابی عدالت استفاده کنم؟
  • چه اطلاعاتی را باید در مصنوعات مدل و شفافیت داده‌ام لحاظ کنم؟

پاسخ به این سؤالات و بسیاری از سؤالات دیگر به موارد استفاده خاص و نیازهای محصول شما بستگی دارد. به این ترتیب، ما نمی‌توانیم دقیقاً به شما بگوییم که چه کاری باید انجام دهید، اما راهنمایی‌هایی را برای تصمیم‌گیری مسئولانه، با راهنمایی‌های مفید و پیوندهایی به روش‌های تحقیق مرتبط در صورت امکان ارائه می‌کنیم. همانطور که گردش کار مسئول هوش مصنوعی خود را با TensorFlow توسعه می دهید، لطفاً بازخورد خود را در tf-responsible-ai@google.com ارائه دهید. درک آموخته‌ها و چالش‌های شما برای توانایی ما در ساخت محصولاتی که برای همه مفید است، حیاتی است.