کتاب راهنمای هوش مصنوعی TensorFlow

معرفی

در سال 2018، گوگل اصول هوش مصنوعی خود را معرفی کرد که توسعه اخلاقی و استفاده از هوش مصنوعی در تحقیقات و محصولات ما را راهنمایی می کند. در راستای این اصول، تیم TensorFlow تلاش می‌کند تا ابزارها و تکنیک‌هایی را در اختیار توسعه‌دهندگان قرار دهد تا به شیوه‌های هوش مصنوعی مسئول (RAI) پایبند باشند.

در این کتاب راهنما، راهنمایی در مورد نحوه استفاده از ابزارها در جعبه ابزار هوش مصنوعی مسئول برای ایجاد یک گردش کار منسجم که مورد استفاده خاص و نیازهای محصول شما را برآورده می کند، خواهید یافت. ابزارهای این کتاب راهنما شامل مواردی است که می تواند در حوزه هایی مانند عدالت و شفافیت به کار رود. این یک حوزه توسعه فعال در Google است، و می‌توانید انتظار داشته باشید که این کتاب راهنما شامل راهنمایی برای حوزه‌های مرتبط دیگر، مانند حریم خصوصی ، توضیح‌پذیری ، و استحکام باشد.

سازمان کتاب راهنما

مستندات و راهنمایی API

برای هر ابزار، راهنمایی هایی در مورد اینکه ابزار چه کاری انجام می دهد، جایی که ممکن است در جریان کاری شما مناسب باشد و ملاحظات مختلف استفاده از آن ارائه می دهیم. در صورت لزوم، برای هر ابزار یک صفحه «نصب» در برگه «راهنما» و مستندات API مفصل در برگه «API» قرار می دهیم. برای برخی از ابزارها، ما همچنین راهنماهای فنی را درج می کنیم که مفاهیمی را که کاربران ممکن است پیدا کنند نشان می دهند. هنگام استفاده از آنها چالش برانگیز است.

آموزش ها

در صورت امکان، ما آموزش های نوت بوک را ارائه خواهیم کرد که نشان می دهد چگونه ابزارهای موجود در جعبه ابزار RAI را می توان اعمال کرد. اینها معمولاً نمونه های اسباب بازی هستند که برای جلب توجه یک ابزار خاص انتخاب می شوند. اگر در مورد این موارد سؤالی دارید، یا اگر موارد استفاده دیگری وجود دارد که می‌خواهید در آموزش‌ها بررسی شود، لطفاً با ما در tf-responsible-ai@google.com تماس بگیرید .

ملاحظات اضافی

طراحی یک گردش کار مسئولیت‌پذیر هوش مصنوعی مستلزم یک رویکرد متفکرانه در هر مرحله از چرخه حیات ML، از فرمول‌بندی مشکل تا استقرار و نظارت است. فراتر از جزئیات پیاده سازی فنی خود، برای به کارگیری این ابزارها باید تصمیمات اجتماعی و فنی مختلفی بگیرید. برخی از ملاحظات رایج RAI که پزشکان ML باید رعایت کنند عبارتند از:

  • برای اطمینان از عملکرد خوب مدلم در کدام دسته بندی جمعیتی نیاز دارم؟
  • اگر برای انجام ارزیابی عادلانه باید برچسب های حساس را ذخیره کنم، چگونه باید تعادل بین عدالت و حریم خصوصی را در نظر بگیرم؟
  • از چه معیارها یا تعاریفی برای ارزیابی عدالت استفاده کنم؟
  • چه اطلاعاتی را باید در مصنوعات مدل و شفافیت داده‌ام لحاظ کنم؟

پاسخ به این سؤالات و بسیاری از سؤالات دیگر به موارد استفاده خاص و نیازهای محصول شما بستگی دارد. به این ترتیب، ما نمی‌توانیم دقیقاً به شما بگوییم که چه کاری باید انجام دهید، اما راهنمایی‌هایی برای تصمیم‌گیری مسئولانه، با راهنمایی‌های مفید و پیوندهایی به روش‌های تحقیق مرتبط در صورت امکان ارائه می‌کنیم. همانطور که گردش کار مسئول هوش مصنوعی خود را با TensorFlow توسعه می دهید، لطفاً بازخورد خود را در tf-responsible-ai@google.com ارائه دهید. درک آموخته‌ها و چالش‌های شما برای توانایی ما در ساخت محصولاتی که برای همه مفید است، حیاتی است.