بررسی اجمالی

با مجموعه‌ها، منظم بمانید ذخیره و دسته‌بندی محتوا براساس اولویت‌های شما.

MinDiff یک تکنیک اصلاح مدل است که به دنبال برابر کردن دو توزیع است. در عمل، می‌توان از آن برای متعادل کردن نرخ خطا در بخش‌های مختلف داده‌های شما با جریمه کردن تفاوت‌های توزیعی استفاده کرد.

معمولاً هنگام تلاش برای اطمینان از عادلانه بودن گروه، از MinDiff استفاده می‌کنید، مانند به حداقل رساندن تفاوت در نرخ مثبت کاذب (FPR) یا نرخ منفی کاذب (FNR) بین تکه‌ای از داده‌های متعلق به یک کلاس حساس و یک برش با عملکرد بهتر. برای بحث عمیق در مورد معیارهای انصاف، ادبیات مربوط به این موضوع را مرور کنید. 1 2 3

MinDiff چگونه کار می کند؟

با توجه به دو مجموعه نمونه از مجموعه داده ما، MinDiff مدل را در طول آموزش به دلیل تفاوت در توزیع امتیازات بین دو مجموعه جریمه می کند. هر چه دو مجموعه بر اساس امتیازات پیش بینی کمتر متمایز شوند، جریمه اعمال شده کمتر خواهد بود.

جریمه با اضافه کردن یک جزء به ضرری که مدل برای آموزش استفاده می کند اعمال می شود. می توان آن را به عنوان اندازه گیری تفاوت در توزیع پیش بینی های مدل در نظر گرفت. همانطور که در نمودارهای زیر نشان داده شده است، همانطور که مدل آموزش می بیند، سعی می کند با نزدیک کردن توزیع ها به یکدیگر، جریمه را به حداقل برساند.

نمودار مقایسه MinDiff

استفاده از MinDiff ممکن است با توجه به عملکرد در کار اصلی با معاوضه همراه باشد. MinDiff می تواند موثر باشد در حالی که عملکرد فراتر از نیاز محصول را بدتر نمی کند، اما تصمیم برای ایجاد تعادل بین عملکرد و اثربخشی MinDiff باید عمداً توسط صاحب محصول گرفته شود. برای مثال‌هایی که نحوه اجرای MinDiff را نشان می‌دهند، به دفترچه مطالعه موردی اصلاح مدل مراجعه کنید.

منابع