TensorFlow Responsible AI 指南

簡介

Google 在 2018 年推出了 AI 原則,列出自家研究和產品在開發及使用 AI 時的道德原則。TensorFlow 團隊按照這些原則,為開發人員提供符合 Responsible AI (RAI) 做法的工具和技巧。

本指南會指引您如何運用 Responsible AI 工具包中的工具來開發單一整合式工作流程,滿足您的特定用途和產品需求。本指南中的工具包括可用於確保「公平性」和「資訊公開」等要求的工具,這是 Google 目前積極開發的領域;本指南還包含其他相關領域的指引內容,例如「隱私權」、「可解釋性」和「穩定性」

指南內容編排

API 說明文件和指南

我們為每項工具提供相關的指引,包括工具用途、可用於工作流程中的哪個階段,以及使用時的各種注意事項。在每項工具「指南」分頁的適合處,我們將加入「安裝」頁面,並在「API」分頁中附上詳細的 API 說明文件。我們也會為部分工具提供技術指南,解釋使用者在運用工具時可能難以理解的概念。

教學課程

我們會盡可能提供筆記本教學課程,指導您運用 RAI 工具包中的工具。一般來說,我們會選擇以玩具做為範例,來示範特定工具的使用方式。如果您有關於教學課程的疑問,或是希望教學課程中介紹其他用途,請傳送電子郵件至 tf-responsible-ai@google.com 與我們聯絡。

其他注意事項

設計 Responsible AI 工作流程時,必須在機器學習生命週期中的每個階段,從問題形成到部署和監控,一律秉持深思熟慮的心態。 除了注意技術實作的各項細節以外,您還需要做出各種社會技術方面的決策,才能妥善運用這些工具。機器學習從業人員經常需要做的一些 RAI 相關決定包括:

  • 我需要確保我的模型在哪些客層類別有良好的成效?
  • 如果我必須儲存敏感標籤才能執行公平性評估,該如何在公平性和隱私權之間做取捨?
  • 我該使用哪些指標或定義來評估公平性?
  • 我該在模型和資料資訊公開構件中包含哪些資訊?

根據您的特定用途和產品,這些問題和更多其他問題的相關答案會有差異。因此,我們無法告訴您究竟該怎麼做,但會盡可能為您提供實用秘訣和相關研究方法的連結,引導您做出負責任的決策。您使用 TensorFlow 開發 Responsible AI 工作流程時,歡迎來信至 tf-responsible-ai@google.com 提供您的意見。只要瞭解您的學習成果和遇到的挑戰,我們就能為所有人打造出實用的產品。