TensorFlow の責任ある AI に関するガイドブック

はじめに

2018 年、Google は AI の原則を導入しました。AI の原則は、Google の研究とサービスにおける AI の倫理的な開発と使用について説明するものです。この原則に沿って、TensorFlow チームは、責任ある AI(RAI)への取り組みを遵守するためのツールとテクニックをデベロッパーの皆さまに提供しています。

このガイドブックでは、責任ある AI ツールキットのツールを適用し、特定のユースケースとサービスのニーズに対応する包括的なワークフローを開発する方法についてのガイダンスを提供しています。このガイドブックの一部のツールは、公平性と透明性などの分野に適用できます。これらの分野は、Google で活発に開発を進めている分野であり、このガイドブックには、プライバシー、説明可能性、堅牢性など、他の関連分野についてのガイダンスも含まれています。

ガイドブックの構成

API ドキュメントとガイダンス

ツールごとに、ツールの機能、ワークフローの適合部分、使用上のさまざまな考慮事項についてのガイダンスを提供します。該当する場合は、各ツールの [ガイド] タブで [インストール] ページ、[API] タブで詳細な API ドキュメントをご利用いただけます。一部のツールでは、ツールを適用する際に困難に感じられる可能性がある概念を説明するテクニカル ガイドもご利用いただけます。

チュートリアル

可能な場合は、RAI ツールキットのツールを適用する方法を示すノートブック チュートリアルを提供します。これらは通常、特定のツールに焦点を当てるための一般例を示したサンプルです。チュートリアルについてご不明な点がある場合、またはチュートリアルで取り扱ってほしいユースケースがある場合は、tf-responsible-ai@google.com までお問い合わせください。

その他の考慮事項

責任ある AI のワークフローを設計するには、問題の定式化からデプロイ、モニタリングまで、ML ライフサイクルの各段階において慎重に取り組む必要があります。また、ツールを適用するには、技術実装の詳細に加えて、さまざまな社会技術的な決定を行う必要があります。RAI に関する ML の実施担当者の一般的な考慮事項には、次のようなものがあります。

  • どのデモグラフィック カテゴリに対して、モデルは適切に機能する必要があるか。
  • 公平性の評価を行うために機密性の高いラベルを保存する必要がある場合、公平性とプライバシーの間のトレードオフをどのように考えればよいか。
  • 公平性を評価するには、どのような指標または定義を使用すればよいか。
  • モデルとデータの透明性のアーティファクトには、どのような情報を含めればよいか。

上記の質問やその他多くの質問に対する回答は、特定のユースケースおよびサービスのニーズによって異なります。そのため、何をすべきかを正確に伝えることはできませんが、役立つヒントと関連する研究方法へのリンクとともに、責任ある決定を行うためのガイダンスを可能な限り提供します。TensorFlow を使用して責任ある AI のワークフローを開発する際は、tf-responsible-ai@google.com までフィードバックをお寄せください。皆さまが学習したことや直面した課題を理解することは、Google がすべてのユーザーに役立つサービスを構築するうえで非常に重要になります。