TensorFlow Sorumlu Yapay Zeka Rehberi

2018'de Google, araştırma ve ürünlerde AI'nın etik gelişimine ve kullanımına rehberlik eden AI İlkelerini tanıttı. Bu ilkeler doğrultusunda TensorFlow ekibi, geliştiricilere Sorumlu Yapay Zeka (RAI) uygulamalarına bağlı kalmaları için araçlar ve teknikler sağlamak için çalışır.

Bu kılavuzda, özel kullanım durumunuza ve ürün gereksinimlerinize hizmet eden uyumlu bir iş akışı geliştirmek için Sorumlu Yapay Zeka Araç Takımı'ndaki araçların nasıl uygulanacağı konusunda rehberlik bulacaksınız. Bu kılavuzdaki araçlar, adalet ve şeffaflık gibi alanlarda uygulanabilecekleri içerir. Bu, Google'da aktif bir geliştirme alanıdır ve bu kılavuzun gizlilik , açıklanabilirlik ve sağlamlık gibi ilgili ek alanlara yönelik rehberlik içermesini bekleyebilirsiniz.

Rehber Organizasyon

Her araç için, aracın ne yaptığı, iş akışınızın neresine sığabileceği ve çeşitli kullanım hususları hakkında rehberlik sağlanır. Uygun olduğunda, her araç için "Kılavuz" sekmesinde bir "Yükleme" sayfası ve "API" sekmesinde ayrıntılı API belgeleri bulunur. Bazı araçlar için, kullanıcıların bunları uygularken zorlanabilecekleri kavramları gösteren teknik kılavuzlar sağlanır.

Mümkün olduğunda, RAI Toolkit'teki araçların nasıl uygulanabileceğini gösteren not defteri eğitimleri sağlanır. Bunlar tipik olarak belirli bir araca ışık tutmak için seçilen oyuncak örnekleridir. Bunlarla ilgili sorularınız varsa veya araştırılmasını istediğiniz başka kullanım örnekleri varsa, lütfen tf-responsible-ai@google.com adresinden TensorFlow RAI ekibine ulaşın.

Aşağıdaki öğreticiler, model adaleti değerlendirmesi ve iyileştirme araçlarıyla başlamanıza yardımcı olabilir.

Bir Google Colab not defterinde çalışan Adalet Göstergelerine giriş. Kendiniz denemek için Google Colab'da Çalıştır düğmesini tıklayın.
Sivil Yorumlar Veri Kümesini kullanarak TF Hub Metin Gömme modellerinde yaygın olarak kullanılan adalet metriklerini değerlendirmek için Adalet Göstergelerini uygulayın.
COMPAS Veri Kümesindeki adalet endişelerini incelemek için Adalet Göstergelerini uygulayın.
Yaygın olarak kullanılan adalet metriklerinde model performansını artırabilen bir model düzeltme tekniği olan MinDiff'i deneyin.
Model Kartları oluşturmak için TFX ile Model Kartı Araç Takımı'nı kullanın.
TF Gizlilik Raporunu kullanarak modelinizin gizliliğini değerlendirin.

Ek Hususlar

Sorumlu bir yapay zeka iş akışı tasarlamak, problem formülasyonundan dağıtım ve izlemeye kadar makine öğrenimi yaşam döngüsünün her aşamasında dikkatli bir yaklaşım gerektirir. Teknik uygulamanızın ayrıntılarının ötesinde, bu araçları uygulamak için çeşitli sosyoteknik kararlar vermeniz gerekecektir. Makine öğrenimi uygulayıcılarının yapması gereken bazı yaygın RAI hususları şunları içerir:

  • Modelimin iyi performans gösterdiğinden emin olmak için hangi demografik kategorilerde ihtiyacım var?
  • Adalet değerlendirmesi yapmak için hassas etiketleri saklamam gerekiyorsa, adalet ve mahremiyet arasındaki ödünleşimi nasıl düşünmeliyim?
  • Adaleti değerlendirmek için hangi ölçütleri veya tanımları kullanmalıyım?
  • Modelime ve veri şeffaflığı oluşumlarına hangi bilgileri dahil etmeliyim?

Bu ve diğer birçok sorunun yanıtları, özel kullanım durumunuza ve ürün gereksinimlerinize bağlıdır. Bu nedenle, size tam olarak ne yapacağınızı söyleyemeyiz, ancak yararlı ipuçları ve mümkün olduğunda ilgili araştırma yöntemlerine bağlantılar ile sorumlu kararlar almanız için rehberlik sağlayacağız. TensorFlow ile sorumlu AI iş akışınızı geliştirirken lütfen tf-responsible-ai@google.com adresinden geri bildirim sağlayın. Öğrendiklerinizi ve zorluklarınızı anlamak, herkes için işe yarayan ürünler oluşturma becerimiz açısından kritik öneme sahiptir.