Buku Panduan AI Bertanggung Jawab TensorFlow

pengantar

Pada tahun 2018, Google memperkenalkan Prinsip AI -nya, yang memandu pengembangan etis dan penggunaan AI dalam penelitian dan produk kami. Sejalan dengan prinsip-prinsip ini, tim TensorFlow bekerja untuk menyediakan alat dan teknik bagi developer untuk mematuhi praktik AI (RAI) yang Bertanggung Jawab.

Dalam buku panduan ini, Anda akan menemukan panduan tentang cara menerapkan alat di Responsible AI Toolkit untuk mengembangkan alur kerja yang kohesif yang melayani kasus penggunaan khusus dan kebutuhan produk Anda. Alat-alat dalam buku panduan ini mencakup alat-alat yang dapat diterapkan di bidang-bidang seperti keadilan dan transparansi . Ini adalah area pengembangan aktif di Google, dan Anda dapat mengharapkan buku panduan ini menyertakan panduan untuk area terkait tambahan, seperti privasi , kemampuan menjelaskan , dan ketahanan.

Organisasi Buku Panduan

Dokumentasi & Panduan API

Untuk setiap alat, kami akan memberikan panduan tentang apa yang dilakukan alat tersebut, di mana dalam alur kerja Anda mungkin cocok, dan berbagai pertimbangan penggunaannya. Jika memungkinkan, kami akan menyertakan halaman "Instal" di tab "Panduan" untuk setiap alat, dan dokumentasi API terperinci di tab "API". Untuk beberapa alat, kami juga akan menyertakan panduan teknis yang menunjukkan konsep yang mungkin ditemukan pengguna menantang saat menerapkannya.

tutorial

Jika memungkinkan, kami akan memberikan tutorial buku catatan yang menunjukkan bagaimana alat di RAI Toolkit dapat diterapkan. Ini biasanya contoh mainan yang dipilih untuk menyoroti alat tertentu. Jika Anda memiliki pertanyaan tentang ini, atau jika ada kasus penggunaan tambahan yang ingin Anda lihat dalam tutorial , hubungi kami di tf-responsible-ai@google.com .

Pertimbangan Tambahan

Merancang alur kerja AI yang bertanggung jawab memerlukan pendekatan yang cermat di setiap tahap siklus hidup ML, mulai dari perumusan masalah hingga penerapan dan pemantauan. Di luar detail implementasi teknis Anda, Anda perlu membuat berbagai keputusan sosioteknik untuk menerapkan alat ini. Beberapa pertimbangan RAI umum yang perlu dilakukan oleh praktisi ML meliputi:

  • Di kategori demografis mana saya perlu memastikan model saya berperforma baik?
  • Jika saya harus menyimpan label sensitif untuk melakukan evaluasi keadilan, bagaimana saya harus mempertimbangkan tradeoff antara keadilan dan privasi?
  • Metrik atau definisi apa yang harus saya gunakan untuk mengevaluasi keadilan?
  • Informasi apa yang harus saya sertakan dalam model dan artefak transparansi data saya?

Jawaban atas pertanyaan ini dan banyak pertanyaan lainnya bergantung pada kasus penggunaan khusus dan kebutuhan produk Anda. Karena itu, kami tidak dapat memberi tahu Anda apa yang harus dilakukan, tetapi akan memberikan panduan untuk membuat keputusan yang bertanggung jawab, dengan tips dan tautan bermanfaat ke metode penelitian yang relevan bila memungkinkan. Saat Anda mengembangkan alur kerja AI yang bertanggung jawab dengan TensorFlow, berikan masukan di tf-responsible-ai@google.com . Memahami pembelajaran dan tantangan Anda sangat penting bagi kemampuan kami untuk membuat produk yang cocok untuk semua orang.