Google I/O הוא עטיפה! התעדכן בהפעלות של TensorFlow. צפה בהפעלות

מדריך AI Responsible TensorFlow

ב-2018 הציגה גוגל את עקרונות הבינה המלאכותית שלה, המנחים את הפיתוח האתי והשימוש בבינה מלאכותית במחקר ובמוצרים. בהתאם לעקרונות אלה, צוות TensorFlow פועל כדי לספק למפתחים כלים וטכניקות כדי לדבוק בפרקטיקות של AI אחראי (RAI).

בספר הדרכה זה, תמצא הדרכה כיצד ליישם כלים בערכת כלי הבינה המלאכותית האחראית כדי לפתח זרימת עבודה מגובשת המשרתת את מקרה השימוש הספציפי שלך וצרכי ​​המוצר. הכלים בספר מדריך זה כוללים את אלה שניתן ליישם בתחומים כגון הוגנות ושקיפות . זהו תחום פיתוח פעיל ב-Google, ואתה יכול לצפות שהמדריך הזה יכלול הדרכה לתחומים קשורים נוספים, כגון פרטיות , יכולת הסבר וחוסן.

ארגון ספר הדרכה

עבור כל כלי, מספקים הדרכה לגבי מה הכלי עושה, היכן בזרימת העבודה שלך הוא עשוי להתאים, ושיקולי השימוש השונים שלו. במקרה הרלוונטי כלול דף "התקנה" בכרטיסייה "מדריך" עבור כל כלי, ותיעוד API מפורט בכרטיסייה "API". עבור כלים מסוימים, מסופקים מדריכים טכניים המדגימים מושגים שמשתמשים עשויים למצוא מאתגרים בעת היישום שלהם.

במידת האפשר, מדריכים למחברת המראים כיצד ניתן ליישם כלים בערכת הכלים של RAI. אלו הן בדרך כלל דוגמאות צעצועים שנבחרו כדי להטיל זרקור על כלי ספציפי. אם יש לך שאלות לגבי אלה, או אם יש מקרי שימוש נוספים שתרצה לראות, פנה לצוות TensorFlow RAI בכתובת tf-responsible-ai@google.com .

המדריכים הבאים יכולים לעזור לך להתחיל עם כלים להערכת הוגנות מודל ותיקון.

מבוא למחווני הוגנות הפועלים במחברת Google Colab. לחץ על הלחצן הפעל ב-Google Colab כדי לנסות זאת בעצמך.
החל אינדיקטורים של הגינות כדי להעריך מדדי הגינות נפוצים במודלים של הטבעת טקסט של TF Hub באמצעות ערכת הנתונים של הערות אזרחיות .
החל אינדיקטורים להוגנות כדי לבחון חששות להוגנות במערך הנתונים של COMPAS .
נסה את MinDiff, טכניקת תיקון מודל שיכולה לשפר את ביצועי המודל על פני מדדי הוגנות נפוצים.
השתמש בערכת הכלים של כרטיסי דגם עם TFX כדי ליצור כרטיסי דגם .
הערך את פרטיות הדגם שלך באמצעות דוח הפרטיות של TF.

שיקולים נוספים

תכנון זרימת עבודה אחראית של AI דורש גישה מתחשבת בכל שלב במחזור החיים של ML, מניסוח בעיות ועד לפריסה וניטור. מעבר לפרטי היישום הטכני שלך, תצטרך לקבל מגוון החלטות סוציו-טכניות על מנת ליישם את הכלים הללו. כמה שיקולי RAI נפוצים שעוסקים ב-ML צריכים לעשות כוללים:

  • באילו קטגוריות דמוגרפיות אני צריך כדי להבטיח שהמודל שלי יצליח?
  • אם עליי לאחסן תוויות רגישות כדי לבצע הערכת הוגנות, כיצד עלי לשקול את הפשרה בין הוגנות לפרטיות?
  • באילו מדדים או הגדרות עלי להשתמש כדי להעריך את ההוגנות?
  • איזה מידע עלי לכלול במודל ובחפצי שקיפות הנתונים שלי?

התשובות לשאלות אלו ולשאלות רבות אחרות תלויות במקרה השימוש הספציפי שלך וצרכי ​​המוצר. ככזה, אנחנו לא יכולים להגיד לך בדיוק מה לעשות, אבל נספק הנחיות לקבלת החלטות אחראיות, עם טיפים מועילים וקישורים לשיטות מחקר רלוונטיות במידת האפשר. בזמן שאתה מפתח את זרימת העבודה בינה מלאכותית האחראית שלך עם TensorFlow, אנא ספק משוב בכתובת tf-responsible-ai@google.com . הבנת הלמידה והאתגרים שלך היא קריטית ליכולתנו לבנות מוצרים שעובדים עבור כולם.