TensorFlow Responsible AI Guidebook

ในปี 2018 Google ได้แนะนำ หลักการ AI ซึ่งเป็นแนวทางในการพัฒนาจริยธรรมและการใช้ AI ในการวิจัยและผลิตภัณฑ์ ตามหลักการเหล่านี้ ทีมงาน TensorFlow ทำงานเพื่อจัดหาเครื่องมือและเทคนิคให้กับนักพัฒนาเพื่อให้สอดคล้องกับแนวทางปฏิบัติ Responsible AI (RAI)

ในคู่มือนี้ คุณจะพบคำแนะนำเกี่ยวกับวิธีการใช้เครื่องมือในชุดเครื่องมือ Responsible AI Toolkit เพื่อพัฒนาเวิร์กโฟลว์ที่สอดคล้องกันซึ่งตอบสนองกรณีการใช้งานเฉพาะและความต้องการผลิตภัณฑ์ของคุณ เครื่องมือในคู่มือนี้รวมถึงเครื่องมือที่สามารถนำไปใช้ในโดเมนต่างๆ เช่น ความเป็น ธรรม และ ความโปร่งใส นี่เป็นส่วนสำคัญของการพัฒนาที่ Google และคุณสามารถคาดหวังว่าคู่มือนี้จะรวมคำแนะนำสำหรับพื้นที่ที่เกี่ยวข้องเพิ่มเติม เช่น ความเป็น ส่วนตัว ความ สามารถในการ อธิบาย และ ความคงทน

คู่มือองค์กร

สำหรับแต่ละเครื่องมือ คำแนะนำเกี่ยวกับสิ่งที่เครื่องมือทำ ตำแหน่งใดในเวิร์กโฟลว์ของคุณที่อาจเหมาะสม และข้อควรพิจารณาในการใช้งานที่หลากหลาย หน้า "ติดตั้ง" ที่เกี่ยวข้องจะรวมอยู่ในแท็บ "คำแนะนำ" สำหรับแต่ละเครื่องมือและเอกสารประกอบ API โดยละเอียดในแท็บ "API" สำหรับเครื่องมือบางอย่าง จะมีคำแนะนำทางเทคนิคที่แสดงให้เห็นแนวคิดที่ผู้ใช้อาจพบว่ามีความท้าทายเมื่อนำไปใช้

เมื่อใดก็ตามที่เป็นไปได้ บทช่วยสอนเกี่ยวกับสมุดบันทึกจะแสดงให้เห็นว่าเครื่องมือใน RAI Toolkit สามารถนำไปใช้ได้อย่างไร โดยทั่วไปแล้วสิ่งเหล่านี้คือตัวอย่างของเล่นที่ได้รับเลือกให้เป็นจุดสนใจในเครื่องมือเฉพาะ หากคุณมีคำถามเกี่ยวกับสิ่งเหล่านี้ หรือหากมีกรณีการใช้งานเพิ่มเติมที่คุณต้องการให้สำรวจ โปรดติดต่อทีม TensorFlow RAI ที่ tf-responsible-ai@google.com

บทช่วยสอนต่อไปนี้จะช่วยให้คุณเริ่มต้นด้วยเครื่องมือสำหรับการประเมินและการแก้ไขความเป็นธรรมของแบบจำลอง

ข้อมูลเบื้องต้นเกี่ยวกับตัวบ่งชี้ความเป็นธรรมในสมุดบันทึก Google Colab คลิกปุ่ม เรียกใช้ใน Google Colab เพื่อลองใช้งานด้วยตนเอง
ใช้ตัวบ่งชี้ความเป็นธรรมเพื่อประเมินตัววัดความเป็นธรรมที่ใช้กันทั่วไปในแบบจำลอง TF Hub Text Embedding โดยใช้ ชุดข้อมูลความคิดเห็นทางแพ่ง
ใช้ตัวบ่งชี้ความเป็นธรรมเพื่อตรวจสอบข้อกังวลด้านความเป็นธรรมใน ชุดข้อมูล COMPAS
ลองใช้ MinDiff ซึ่งเป็นเทคนิคการแก้ไขโมเดลที่สามารถปรับปรุงประสิทธิภาพของโมเดลในเมตริกความเป็นธรรมที่ใช้กันทั่วไปได้
ใช้ Model Card Toolkit กับ TFX เพื่อสร้าง Model Cards
ประเมินความเป็นส่วนตัวของโมเดลของคุณโดยใช้รายงานความเป็นส่วนตัว TF

ข้อควรพิจารณาเพิ่มเติม

การออกแบบเวิร์กโฟลว์ AI ที่รับผิดชอบต้องใช้วิธีการที่รอบคอบในแต่ละขั้นตอนของวงจรชีวิต ML ตั้งแต่การกำหนดปัญหาไปจนถึงการปรับใช้และการตรวจสอบ นอกเหนือจากรายละเอียดการใช้งานทางเทคนิคของคุณ คุณจะต้องทำการตัดสินใจทางสังคมเทคนิคต่างๆ เพื่อใช้เครื่องมือเหล่านี้ ข้อควรพิจารณา RAI ทั่วไปบางประการที่ผู้ปฏิบัติงาน ML ต้องทำ ได้แก่:

  • ฉันต้องใช้กลุ่มประชากรประเภทใดเพื่อให้แน่ใจว่าแบบจำลองของฉันทำงานได้ดี
  • หากฉันต้องจัดเก็บฉลากที่ละเอียดอ่อนเพื่อประเมินความเป็นธรรม ฉันควรพิจารณาข้อแลกเปลี่ยนระหว่างความเป็นธรรมและความเป็นส่วนตัวอย่างไร
  • ฉันควรใช้ตัวชี้วัดหรือคำจำกัดความใดในการประเมินความเป็นธรรม
  • ฉันควรรวมข้อมูลใดบ้างในแบบจำลองและสิ่งประดิษฐ์ความโปร่งใสของข้อมูล

คำตอบสำหรับคำถามเหล่านี้และคำถามอื่นๆ ขึ้นอยู่กับกรณีการใช้งานและความต้องการผลิตภัณฑ์ของคุณโดยเฉพาะ ด้วยเหตุนี้ เราจึงไม่สามารถบอกคุณได้แน่ชัดว่าต้องทำอย่างไร แต่จะให้คำแนะนำในการตัดสินใจอย่างมีความรับผิดชอบ พร้อมคำแนะนำที่เป็นประโยชน์และลิงก์ไปยังวิธีการวิจัยที่เกี่ยวข้องทุกเมื่อที่ทำได้ ในขณะที่คุณพัฒนาเวิร์กโฟลว์ AI ที่มีความรับผิดชอบด้วย TensorFlow โปรดให้ข้อเสนอแนะที่ tf-responsible-ai@google.com การทำความเข้าใจกับการเรียนรู้และความท้าทายของคุณมีความสำคัญต่อความสามารถของเราในการสร้างผลิตภัณฑ์ที่เหมาะกับทุกคน