סקירה כללית

קל לארגן דפים בעזרת אוספים אפשר לשמור ולסווג תוכן על סמך ההעדפות שלך.

MinDiff היא טכניקת שיקום מודל המבקשת להשוות שתי התפלגות. בפועל, ניתן להשתמש בו כדי לאזן את שיעורי השגיאות על פני חלקים שונים של הנתונים שלך על ידי ענישה של הבדלי התפלגות.

בדרך כלל, אתה מיישם MinDiff כאשר אתה מנסה להבטיח הוגנות קבוצתית, כגון מזעור ההבדל בין שיעור חיובי שגוי (FPR) או שיעור שלילי שגוי (FNR) בין נתח נתונים השייך למחלקה רגישה לפרוסה בעלת ביצועים טובים יותר. לדיון מעמיק במדדי הוגנות, סקור את הספרות בנושא זה. 1 2 3

איך MinDiff עובד?

בהינתן שתי קבוצות של דוגמאות ממערך הנתונים שלנו, MinDiff מענישה את המודל במהלך האימון על הבדלים בהתפלגות הציונים בין שני הקבוצות. ככל ששתי הקבוצות מבוססות פחות על ציוני חיזוי, כך העונש שיופעל יהיה קטן יותר.

העונש מוחל על ידי הוספת רכיב להפסד שהמודל משתמש בו לאימון. אפשר לחשוב על זה כמדידה של ההבדל בהתפלגות של תחזיות מודל. כשהמודל מתאמן, הוא מנסה למזער את העונש על ידי קירוב ההתפלגויות, כפי שמוצג בתרשימים למטה.

גרף השוואה של MinDiff

יישום MinDiff עשוי לבוא עם פשרות ביחס לביצועים במשימה המקורית. MinDiff יכולה להיות אפקטיבית תוך שהיא אינה פוגעת בביצועים מעבר לצרכי המוצר, אך ההחלטה לאזן בין ביצועים לאפקטיביות של MinDiff צריכה להיעשות בכוונה על ידי בעל המוצר. לדוגמאות המראות כיצד ליישם את MinDiff, עיין במחברת המקרה לתיקון המודל .

אֶמְצָעִי