Adalet Göstergeleri, adalet için ikili ve çok sınıflı sınıflandırıcıları değerlendirmek için yararlı bir araçtır. Sonunda, daha da fazla hususu değerlendirmek için bu aracı hepinizle ortaklaşa genişletmeyi umuyoruz.
Nicel değerlendirmenin daha geniş bir kullanıcı deneyimini değerlendirmenin yalnızca bir parçası olduğunu unutmayın. Bir kullanıcının ürününüzü deneyimleyebileceği farklı bağlamları düşünerek başlayın. Ürününüzün hizmet vermesi beklenen farklı kullanıcı türleri kimlerdir? Bu deneyimden başka kimler etkilenebilir?
AI'nın insanlar üzerindeki etkisini düşünürken, insan toplumlarının son derece karmaşık olduğunu her zaman hatırlamak önemlidir! İnsanları ve onların sosyal kimliklerini, sosyal yapılarını ve kültürel sistemlerini anlamak, her biri kendi başına devasa açık araştırma alanlarıdır. Dünyanın dört bir yanındaki kültürler arası farklılıkların karmaşıklığını bir kenara bırakın ve toplumsal etkiyi anlamak için bir adım atmak bile zor olabilir. Mümkün olduğunda, sosyal bilimcileri, sosyo-dilbilimcileri ve kültürel antropologları içerebilecek uygun alan uzmanlarına ve ayrıca teknolojinin konuşlandırılacağı popülasyonların üyelerine danışmanız önerilir.
Örneğin kolab örneğinde kullandığımız toksisite modeli gibi tek bir model birçok farklı bağlamda kullanılabilir. Örneğin, saldırgan yorumları filtrelemek için bir web sitesinde dağıtılan bir toksisite modeli, kullanıcıların bir cümle yazabileceği ve modelin hangi puanı verdiğini görebileceği örnek bir web kullanıcı arayüzünde dağıtılan modelden çok farklı bir kullanım durumudur. Kullanım durumuna ve kullanıcıların model tahminini nasıl deneyimlediğine bağlı olarak, ürününüzün farklı riskleri, etkileri ve fırsatları olacaktır ve farklı adalet kaygıları için değerlendirmek isteyebilirsiniz.
Yukarıdaki sorular, ML tabanlı ürününüzü tasarlarken ve geliştirirken adalet dahil olmak üzere hangi etik hususları dikkate almak isteyebileceğinizin temelidir. Bu sorular ayrıca, aracı değerlendirmek için hangi metrikleri ve hangi kullanıcı gruplarını kullanmanız gerektiğini de motive eder.
Daha fazla dalmadan önce, başlamak için önerilen üç kaynak:
- İnsan Merkezli Yapay Zeka tasarımı için İnsanlar + Yapay Zeka Rehberi : Bu rehber kitap, makine öğrenimi tabanlı bir ürün tasarlarken akılda tutulması gereken sorular ve hususlar için harika bir kaynaktır. Bu kılavuzu tasarımcıları göz önünde bulundurarak hazırlamış olsak da, ilkelerin çoğu yukarıda sorulan sorulara benzer soruları yanıtlamaya yardımcı olacaktır.
- Aldığımız Adalet Derslerimiz : Google I/O'daki bu konuşma, kapsayıcı ürünler oluşturma ve tasarlama hedefimizde öğrendiğimiz dersleri tartışıyor.
- ML Crash Course: Adillik : ML Crash Course, adaletle ilgili endişeleri belirlemeye ve değerlendirmeye ayrılmış 70 dakikalık bir bölüme sahiptir.
Öyleyse neden tek tek dilimlere bakıyorsunuz? Güçlü genel metrikler belirli gruplar için düşük performansı gizleyebileceğinden, bireysel dilimler üzerinden değerlendirme önemlidir. Benzer şekilde, belirli bir metrik (doğruluk, AUC) için iyi performans göstermek, kullanıcılar için fırsat ve zararı değerlendirmede eşit derecede önemli olan diğer metrikler (yanlış pozitif oran, yanlış negatif oran) için her zaman kabul edilebilir performans anlamına gelmez.
Aşağıdaki bölümler, dikkate alınması gereken bazı yönlerden geçecektir.
Hangi gruplara göre dilimlemeliyim?
Genel olarak, performansın bir diğerinde ne zaman farklılık gösterebileceğini asla bilemeyeceğinizden, ürününüzden etkilenebilecek kadar çok gruba bölerek bölmek iyi bir uygulamadır. Ancak, emin değilseniz, ürününüzle etkileşime geçebilecek farklı kullanıcıları ve bunların nasıl etkilenebileceğini düşünün. Özellikle ırk, etnik köken, cinsiyet, uyruk, gelir, cinsel yönelim ve engellilik durumu gibi hassas özelliklerle ilgili bölümleri göz önünde bulundurun.
Araştırmak istediğim dilimler için etiketlenmiş verilerim yoksa ne olur?
İyi soru. Birçok veri kümesinin bireysel kimlik özellikleri için temel gerçeklik etiketlerine sahip olmadığını biliyoruz.
Kendinizi bu konumda bulursanız, birkaç yaklaşım öneririz:
- Gruplar arasındaki performans hakkında size fikir verebilecek nitelikler olup olmadığını belirleyin. Örneğin coğrafya , etnik köken ve ırkla eşdeğer olmasa da, performanstaki farklı kalıpları ortaya çıkarmanıza yardımcı olabilir.
- Sorununuzla iyi bir şekilde eşleşebilecek temsili genel veri kümeleri olup olmadığını belirleyin. Google AI sitesinde , diğerlerinin yanı sıra Project Respect , Inclusive Images ve Open Images Extended gibi çeşitli ve kapsayıcı veri kümeleri bulabilirsiniz.
- Verilerinizi nesnel yüzey düzeyinde niteliklerle etiketlemek için ilgili olduğunda kurallardan veya sınıflandırıcılardan yararlanın. Örneğin, metni cümlede bir özdeşlik terimi olup olmadığına göre etiketleyebilirsiniz. Sınıflandırıcıların kendi zorlukları olduğunu ve dikkatli olmazsanız, başka bir önyargı katmanı da getirebileceğini unutmayın. Sınıflandırıcınızın gerçekte neyi sınıflandırdığı konusunda net olun. Örneğin, görüntülerdeki bir yaş sınıflandırıcısı aslında algılanan yaşı sınıflandırır. Ek olarak, mümkün olduğunda, verilerde nesnel olarak tanımlanabilen yüzey düzeyindeki niteliklerden yararlanın. Örneğin, ırk veya etnik köken için bir görüntü sınıflandırıcısı oluşturmak doğru değildir, çünkü bunlar bir görüntüde tanımlanabilecek görsel özellikler değildir. Bir sınıflandırıcı muhtemelen proxy'leri veya klişeleri yakalayacaktır. Bunun yerine, cilt tonu için bir sınıflandırıcı oluşturmak, bir görüntüyü etiketlemek ve değerlendirmek için daha uygun bir yol olabilir. Son olarak, bu tür öznitelikleri etiketleyen sınıflandırıcılar için yüksek doğruluk sağlayın.
- Etiketlenmiş daha fazla temsili veri bulun
Her zaman birden çok, çeşitli veri kümesi üzerinde değerlendirme yaptığınızdan emin olun.
Değerlendirme verileriniz, kullanıcı tabanınızı veya karşılaşılması muhtemel veri türlerini yeterince temsil etmiyorsa, aldatıcı derecede iyi adalet metrikleri elde edebilirsiniz. Benzer şekilde, bir veri kümesindeki yüksek model performansı, diğerlerinde yüksek performansı garanti etmez.
Alt grupların her zaman bireyleri sınıflandırmanın en iyi yolu olmadığını unutmayın.
İnsanlar çok boyutludur ve tek bir boyut içinde bile birden fazla gruba aittir - çok ırklı veya birden çok ırk grubuna ait birini düşünün. Ayrıca, belirli bir ırk grubu için genel metrikler adil görünse de, ırk ve cinsiyet gibi belirli etkileşimler, istenmeyen yanlılık gösterebilir. Ayrıca, birçok alt grubun sürekli olarak yeniden çizilen bulanık sınırları vardır.
Yeterli dilimi ne zaman test ettim ve hangi dilimleri test edeceğimi nasıl bilebilirim?
Test etmekle ilgili olabilecek çok sayıda grup veya dilim olduğunu kabul ediyoruz ve mümkün olduğunda, çeşitli ve geniş bir dilim aralığını dilimlemenizi ve değerlendirmenizi ve ardından iyileştirme fırsatlarını tespit ettiğiniz derin dalışları öneriyoruz. Ayrıca, test ettiğiniz dilimlerle ilgili endişeler görmeseniz bile, bunun ürününüzün tüm kullanıcılar için çalıştığı anlamına gelmediğini ve farklı kullanıcı geri bildirimleri ve testleri almanın, sürekli olarak yeni tanımlamalar yaptığınızdan emin olmak için önemli olduğunu kabul etmek önemlidir. fırsatlar.
Başlamak için, özel kullanım durumunuzu ve kullanıcıların ürününüzle etkileşime geçebilecekleri farklı yolları düşünmenizi öneririz. Farklı kullanıcılar nasıl farklı deneyimlere sahip olabilir? Bu, değerlendirmeniz gereken dilimler için ne anlama geliyor? Farklı kullanıcılardan geri bildirim toplamak, öncelik verilmesi gereken potansiyel dilimleri de vurgulayabilir.
Hangi metrikleri seçmeliyim?
Sisteminiz için hangi metriklerin değerlendirileceğini seçerken, modelinizi kimin deneyimleyeceğini, nasıl deneyimleneceğini ve bu deneyimin etkilerini göz önünde bulundurun.
Örneğin, modeliniz insanlara nasıl daha fazla saygınlık veya özerklik veriyor ya da duygusal, fiziksel veya finansal refahlarını nasıl olumlu etkiliyor? Buna karşılık, modelinizin tahminleri insanların onurunu veya özerkliğini nasıl azaltabilir veya duygusal, fiziksel veya finansal refahlarını nasıl olumsuz etkileyebilir?
Genel olarak, iyi uygulama olarak mevcut tüm performans ölçümlerinizi dilimlemenizi öneririz. Eşiğin farklı grupların performansını nasıl etkileyebileceğini anlamak için metriklerinizi birden çok eşik genelinde değerlendirmenizi de öneririz .
Ek olarak, tek tip olarak "iyi" veya "kötü" olan bir tahmini etiket varsa, o etiketin tahmin edildiği oranı (her alt grup için) raporlamayı düşünün. Örneğin, "iyi" bir etiket, tahmini bir kişiye bazı kaynaklara erişim sağlayan veya bazı eylemleri gerçekleştirmelerini sağlayan bir etiket olabilir.
Sınıflandırma için kritik adalet metrikleri
Bir sınıflandırma modeli hakkında düşünürken, hataların etkilerini düşünün (gerçek “temel gerçek” etiketi ile modeldeki etiket arasındaki farklar). Bazı hatalar kullanıcılarınıza daha fazla fırsat veya zarar verebilirse, bu hataların oranlarını kullanıcı grupları arasında değerlendirdiğinizden emin olun. Bu hata oranları, şu anda Adillik Göstergeleri beta tarafından desteklenen metriklerde aşağıda tanımlanmıştır.
Önümüzdeki yıl boyunca, farklı metriklerin ne zaman en uygun olabileceğini daha iyi vurgulayabilmemiz için farklı kullanım örneklerine ve bunlarla ilişkili metriklere ilişkin örnek olay incelemeleri yayınlamayı umuyoruz.
Adillik Göstergelerinde bugün mevcut olan metrikler
Pozitif Oran / Negatif Oran
- Tanım: Kesin bilgiden bağımsız olarak pozitif veya negatif olarak sınıflandırılan veri noktalarının yüzdesi
- Aşağıdakilerle İlgilidir: Alt gruplar arasında eşit olduğunda Demografik Parite ve Sonuçların Eşitliği
- Bu metrik ne zaman kullanılır: Grupların nihai yüzdelerinin eşit olmasının önemli olduğu durumlarda adalet kullanım durumları
Gerçek Pozitif Oran / Yanlış Negatif Oran
- Tanım: Doğru olarak pozitif olarak sınıflandırılan pozitif veri noktalarının (temel gerçeğinde etiketlendiği gibi) yüzdesi veya yanlış olarak negatif olarak sınıflandırılan pozitif veri noktalarının yüzdesi
- İlgili: Fırsat Eşitliği (pozitif sınıf için), alt gruplar arasında eşit olduğunda
- Bu metrik ne zaman kullanılır: Her grupta aynı nitelikli aday yüzdesinin olumlu olarak değerlendirilmesinin önemli olduğu adalet kullanım durumları. Bu, en çok kredi başvuruları, okula kabuller veya içeriğin çocuklara uygun olup olmadığı gibi olumlu sonuçların sınıflandırıldığı durumlarda önerilir.
Gerçek Negatif Oran / Yanlış Pozitif Oran
- Tanım: Negatif olarak doğru bir şekilde sınıflandırılan negatif veri noktalarının (temel gerçeğinde etiketlendiği gibi) yüzdesi veya yanlış bir şekilde pozitif olarak sınıflandırılan negatif veri noktalarının yüzdesi
- İlgili: Fırsat Eşitliği (negatif sınıf için), alt gruplar arasında eşit olduğunda
- Bu ölçü ne zaman kullanılır: Hata oranlarının (veya bir şeyi pozitif olarak yanlış sınıflandırmanın) pozitifleri sınıflandırmaktan daha önemli olduğu durumlarda adillik kullanım durumları. Bu, pozitiflerin genellikle olumsuz eylemlere yol açtığı kötüye kullanım vakalarında en yaygın olanıdır. Bunlar, yüz tanıma veya yüz öznitelikleri gibi Yüz Analizi Teknolojileri için de önemlidir.
Doğruluk ve AUC
- Şunlarla ilgilidir: Alt gruplar arasında eşit olduğunda Tahmini Parite
- Bu metrikler ne zaman kullanılır: Yüz tanımlama veya yüz kümeleme gibi görevin kesinliğinin en kritik olduğu (belirli bir yönde olması gerekmeyen) durumlar
Yanlış Keşif Oranı
- Tanım: Pozitif olarak sınıflandırılan tüm veri noktalarından yanlış olarak pozitif olarak sınıflandırılan negatif veri noktalarının (temel gerçeğinde etiketlendiği gibi) yüzdesi. Bu aynı zamanda PPV'nin tersidir.
- İlgili: Alt gruplar arasında eşit olduğunda Tahmini Parite (Kalibrasyon olarak da bilinir)
- Bu metrik ne zaman kullanılır: Doğru pozitif tahminlerin oranının alt gruplar arasında eşit olması gereken durumlar
Yanlış İhmal Oranı
- Tanım: Negatif olarak sınıflandırılan tüm veri noktalarından yanlış olarak negatif olarak sınıflandırılan pozitif veri noktalarının (temel gerçeğinde etiketlendiği gibi) yüzdesi. Bu aynı zamanda NPV'nin tersidir.
- İlgili: Alt gruplar arasında eşit olduğunda Tahmini Parite (Kalibrasyon olarak da bilinir)
- Bu metrik ne zaman kullanılır: Doğru olumsuz tahminlerin oranının alt gruplar arasında eşit olması gereken durumlar
Genel Dönme Hızı / Olumludan Negatife Tahmin Dönme Hızı / Negatiften Olumluya Tahmin Dönme Hızı
- Tanım: Belirli bir özellikteki kimlik özniteliği değiştirilirse, sınıflandırıcının farklı bir tahmin verme olasılığı.
- İlgili: Karşı olgusal adalet
- Bu metrik ne zaman kullanılır: Örnekte atıfta bulunulan hassas öznitelikler kaldırıldığında veya değiştirildiğinde modelin tahmininin değişip değişmediğini belirlerken. Varsa, Tensorflow Model Düzeltme kitaplığındaki Karşı Olgusal Logit Eşleştirme tekniğini kullanmayı düşünün.
Çevirme Sayısı / Olumludan Negatife Tahmin Çevirme Sayısına / Negatiften Olumluya Tahmin Çevirme Sayısı *
- Tanım: Belirli bir örnekteki özdeşlik terimi değiştirilmişse, sınıflandırıcının farklı bir tahmin verme sayısı.
- İlgili: Karşı olgusal adalet
- Bu metrik ne zaman kullanılır: Örnekte atıfta bulunulan hassas öznitelikler kaldırıldığında veya değiştirildiğinde modelin tahmininin değişip değişmediğini belirlerken. Varsa, Tensorflow Model Düzeltme kitaplığındaki Karşı Olgusal Logit Eşleştirme tekniğini kullanmayı düşünün.
Hangi metriklerin seçileceğine ilişkin örnekler
- Bir kamera uygulamasında yüzlerin sistematik olarak algılanmaması, belirli kullanıcı grupları için olumsuz bir kullanıcı deneyimine yol açabilir. Bu durumda, bir yüz algılama sistemindeki yanlış negatifler ürünün arızalanmasına neden olabilirken, yanlış bir pozitif (yokken bir yüzün algılanması) kullanıcı için hafif bir sıkıntı oluşturabilir. Bu nedenle, bu kullanım durumu için yanlış negatif oranının değerlendirilmesi ve en aza indirilmesi önemlidir.
- Belirli kişilerden gelen metin yorumlarını bir moderasyon sisteminde haksız yere "spam" veya "yüksek toksisite" olarak işaretlemek, belirli seslerin susturulmasına neden olur. Bir yandan, yüksek bir yanlış pozitif oran, haksız sansüre yol açar. Öte yandan, yüksek bir yanlış negatif oranı, belirli gruplardan hem kullanıcıya zarar verebilecek hem de bu gruplar için temsili bir zarar oluşturabilecek toksik içeriğin çoğalmasına yol açabilir. Bu nedenle, doğruluk veya AUC gibi her türlü hatayı hesaba katan metriklere ek olarak her iki metrik de dikkate alınması önemlidir.
Aradığınız metrikleri göremiyor musunuz?
Kendi özel metriğinizi eklemek için buradaki belgeleri izleyin.
Son notlar
İki grup arasındaki metrikte bir boşluk, modelinizin haksız çarpıklıkları olabileceğinin bir işareti olabilir . Sonuçlarınızı kullanım durumunuza göre yorumlamalısınız. Ancak, bir grup kullanıcıya adaletsizce davrandığınızın ilk işareti, o kullanıcı grubu ile sizin geneliniz arasındaki metriklerin önemli ölçüde farklı olmasıdır. Bu farklılıklara bakarken güven aralıklarını hesaba kattığınızdan emin olun. Belirli bir dilimde çok az örneğiniz olduğunda, metrikler arasındaki fark doğru olmayabilir.
Adillik Göstergelerinde gruplar arasında eşitliği sağlamak, modelin adil olduğu anlamına gelmez. Sistemler oldukça karmaşıktır ve sağlanan metriklerden birinde (hatta tümünde) eşitliğin sağlanması, Adaleti garanti edemez.
Adillik değerlendirmeleri, geliştirme süreci boyunca ve lansman sonrasında (lansmandan önceki gün değil) yapılmalıdır. Ürününüzü geliştirmenin devam eden bir süreç olması ve kullanıcı ve pazar geri bildirimlerine dayalı ayarlamalara tabi olması gibi, ürününüzü adil ve hakkaniyete uygun hale getirmek de sürekli dikkat gerektirir. Eğitim verileri, diğer modellerden gelen girdiler veya tasarımın kendisi gibi modelin farklı yönleri değiştikçe, adalet metriklerinin de değişmesi muhtemeldir. "Çubuğu temizlemek", etkileşim halindeki tüm bileşenlerin zaman içinde bozulmadan kalmasını sağlamak için yeterli değildir.
Nadir, kötü niyetli örnekler için rakip testi yapılmalıdır. Adillik değerlendirmeleri, çekişmeli testlerin yerini almaz. Nadir, hedeflenen örneklere karşı ek savunma çok önemlidir, çünkü bu örnekler muhtemelen eğitim veya değerlendirme verilerinde tezahür etmeyecektir.