Google は、黒人コミュニティのための人種的公平の促進に取り組んでいます。詳細をご覧ください。

TensorFlow を使用して責任ある AI への取り組みを ML ワークフローに統合する方法をご確認ください

TensorFlow は ML コミュニティとともにさまざまなリソースやツールを提供することで、責任ある AI 開発の普及支援に取り組んでいます。

責任ある AI とは

AI 開発により、現実世界の困難な問題を解決する新たなチャンスが生まれています。同時に、誰にとっても有意義な AI システムを構築するための最善の方法を探る、新たな疑問も生まれました。

AI に関するおすすめのベスト プラクティス

AI システムを設計する際は、ソフトウェア開発のベスト プラクティスに沿って進めつつ、ML に対しては人間中心のアプローチを取る必要があります。

公平さ

さまざまなセクターや社会に AI の影響が広がる今日、誰にとっても公正でインクルーシブなシステムを目指すことが重要です。

解釈可能性

意図したとおりに動作させるには、AI システムを理解し、信頼することが大切です

プライバシー

機密データを使用してモデルをトレーニングする際はプライバシー保護対策が必要です

セキュリティ

潜在的な脅威を特定して、AI システムの安全性を確保できます

ML ワークフローで責任ある AI を

責任ある AI への取り組みは、ML ワークフローのあらゆる段階に組み込めます。各段階で検討すべき重要な点は、以下のとおりです。

私の ML システムの対象となるのはどのようなユーザーでしょうか?

システムによる予測や推奨、決定の持つ真の影響力を評価するためには、実際のユーザーがどのようにシステムを使用しているのかを知ることが重要です。開発の早い段階で、多様なユーザーからフィードバックをもらいましょう。

私が使用するのは代表的なデータセットですか?

データがお客様のユーザーを代表するようにサンプリング(例: すべての年齢層に使用するが、所持するのは高齢者のトレーニング データのみ)されており、かつ現実に即して設定(例: 年間を通じて使用するが、所持するのは夏期のトレーニング データのみ)されていますか?

データに現実世界や人間のバイアスはありますか?

データの根底にあるバイアスは、既存の固定概念を強化する複雑なフィードバック ループの原因になる可能性があります。

どのような方法でモデルのトレーニングを行えばよいですか?

モデルに公平性と解釈可能性をもたらし、プライバシーとセキュリティに配慮したトレーニング方法を選びます。

モデルのパフォーマンスを把握するにはどうすればよいですか?

さまざまなユーザー、ユースケース、使用コンテキストにわたって現実世界のシナリオでのユーザー エクスペリエンスを評価します。まず dogfood でテストを繰り返し実行し、リリース後も継続してテストを行います。

複雑なフィードバック ループはありますか?

システムの全体的な設計に細部まで慎重に取り組んだとしても、機械学習モデルを現実世界のデータに適用した場合、100% 完璧に動作することはめったにありません。稼働中のプロダクトに問題が発生した場合は、その問題が、既存の社会的なデメリットと合致するものか、また短期および長期ソリューションによってどのように影響を受けるかを検討してください。

TensorFlow 用の責任ある AI の各種ツール

TensorFlow エコシステムには、上記の問いに取り組むためのさまざまなツールとリソースがそろっています。

ステップ 1

問題の定義

次のリソースを使用して、責任ある AI を念頭に置いたモデルを設計します。

People + AI Research(PAIR)ガイドブック

AI の開発プロセスと考慮すべきポイントに関する詳細をご覧ください。

PAIR Explorables

インタラクティブに可視化された、責任ある AI 分野の重要な問いとコンセプトをご覧ください。

ステップ 2

データの作成と準備

次のツールを使用して、データに潜在的なバイアスが含まれていないか調べます。

TF Data Validation

データを分析、変換して問題を見つけ出し、より効果の高い機能セットを設計できます。

データカード

データセットに関する透明性レポートを作成します。

ステップ 3

モデルの構築とトレーニング

次のツールを使用して、わかりやすく、プライバシーに配慮した手法などでモデルをトレーニングします。

TF Model Remediation

Train machine learning models to promote more equitable outcomes.

TF Privacy

プライバシーに配慮しつつ機械学習モデルをトレーニングします。

TF Federated

フェデレーション ラーニング技術を使用して機械学習モデルをトレーニングします。

TF Constrained Optimization

不均衡によって制約を受けた問題を最適化します。

TF Lattice

柔軟でわかりやすく、制御された格子ベースのモデルを実装します。

ステップ 4

モデルを評価する

次のツールを使用して、モデルのパフォーマンスをデバッグ、評価、可視化します。

公平性インジケーター

バイナリとマルチクラス分類器の一般的な公平性指標を評価します。

TF Model Analysis

分散方式でモデルを評価し、さまざまなデータスライスで計算します。

What-If ツール

機械学習モデルを調査、評価、比較します。

Explainable AI

包括的でわかりやすい機械学習モデルを開発します。

TF Privacy テスト

分類モデルのプライバシー特性を評価します。

TensorBoard

機械学習ワークフローを測定し、視覚化できます。

ステップ 5

デプロイとモニタリング

次のツールを使用して、モデルのコンテキストと詳細を追跡し、話し合います。

Model Card Toolkit

Model Card Toolkit を使用すると、簡単にモデルカードを作成できます。

ML メタデータ

ML デベロッパーとデータ サイエンティストのワークフローに関連するメタデータを記録および取得します。

モデルカード

機械学習に関する重要な事実を構造化して整理します。

詳細

コミュニティの活動内容と参加方法についてご確認ください。

Google のクラウドソース

Google がより包括的で、お客様の言語、地域、文化を反映したサービスを提供できるようご協力ください。

責任ある AI DevPost の取り組み

TensorFlow 2.2 では、責任ある AI の原則を踏まえたモデルやアプリケーションを構築できます。

TensorFlow を使用した責任ある AI(TF Dev Summit '20)

ML、公平性、プライバシーについて検討するためのフレームワークをご紹介します。

Continue