コレクションでコンテンツを整理 必要に応じて、コンテンツの保存と分類を行います。

TensorFlowResponsibleAIガイドブック

2018年、GoogleはAIの原則を導入しました。これは、研究や製品におけるAIの倫理的な開発と使用をガイドするものです。これらの原則に沿って、TensorFlowチームは、Responsible AI(RAI)プラクティスに準拠するためのツールとテクニックを開発者に提供するように取り組んでいます。

このガイドブックには、Responsible AI Toolkitのツールを適用して、特定のユースケースと製品のニーズに対応するまとまりのあるワークフローを開発する方法に関するガイダンスが記載されています。このガイドブックのツールには、公平性透明性などの分野で適用できるツールが含まれています。これはGoogleで活発に開発されている分野であり、このガイドブックには、プライバシー説明性、堅牢性などの追加の関連分野に関するガイダンスが含まれていることが期待できます。

ガイドブックの構成

ツールごとに、ツールの機能、ワークフローのどこにツールが適合するか、およびさまざまな使用上の考慮事項に関するガイダンスが提供されます。該当する場合は、各ツールの[ガイド]タブに[インストール]ページが含まれ、[API]タブに詳細なAPIドキュメントが含まれます。一部のツールには、ユーザーがツールを適用するときに難しいと感じる可能性のある概念を示すテクニカルガイドが提供されます。

可能な限り、RAIToolkitのツールを適用する方法を示すノートブックチュートリアルが提供されます。これらは通常、特定のツールにスポットライトを当てるために選択されたおもちゃの例です。これらについて質問がある場合、または調査してもらいたい追加のユースケースがある場合は、TensorFlow RAIチーム( tf-responsible-ai@google.com )に連絡してください。

次のチュートリアルでは、モデルの公平性の評価と修正のためのツールを使い始めることができます。

GoogleColabノートブックで実行されている公平性インジケーターの概要。 [ Google Colabで実行]ボタンをクリックして、自分で試してみてください。
公平性インジケーターを適用して、 CivilCommentsDatasetを使用してTFハブテキスト埋め込みモデルで一般的に使用される公平性メトリックを評価します。
公平性指標を適用して、 COMPASデータセットの公平性の懸念を調べます。
MinDiffを試してみてください。これは、一般的に使用される公平性メトリック全体でモデルのパフォーマンスを向上させることができるモデル修復手法です。
モデルカードツールキットとTFXを使用して、モデルカードを生成します。
TFプライバシーレポートを使用して、モデルのプライバシーを評価します。

追加の考慮事項

責任あるAIワークフローを設計するには、問題の定式化から展開と監視まで、MLライフサイクルの各段階で思慮深いアプローチが必要です。これらのツールを適用するには、技術的な実装の詳細に加えて、さまざまな社会技術的な決定を行う必要があります。 MLの実践者が行う必要のある一般的なRAIの考慮事項は次のとおりです。

  • モデルが適切に機能するようにするには、どの人口統計カテゴリにわたって必要ですか?
  • 公平性の評価を行うために機密ラベルを保管する必要がある場合、公平性とプライバシーのトレードオフをどのように考慮する必要がありますか?
  • 公平性を評価するには、どのような指標または定義を使用する必要がありますか?
  • モデルとデータの透明性アーティファクトにどのような情報を含める必要がありますか?

これらおよび他の多くの質問に対する回答は、特定のユースケースおよび製品のニーズによって異なります。そのため、正確に何をすべきかをお伝えすることはできませんが、責任ある意思決定を行うためのガイダンスを提供し、可能な場合はいつでも役立つヒントと関連する調査方法へのリンクを提供します。 TensorFlowを使用して責任あるAIワークフローを開発するときは、tf-responsible-ai@ google.comでフィードバックを提供してください。あなたの学習と課題を理解することは、すべての人に役立つ製品を構築する私たちの能力にとって重要です。