Merken Sie den Termin vor! Google I / O kehrt vom 18. bis 20. Mai zurück Registrieren Sie sich jetzt
Diese Seite wurde von der Cloud Translation API übersetzt.
Switch to English

TensorFlow Responsible AI Guidebook

Einführung

Im Jahr 2018 stellte Google seine KI-Prinzipien vor , die die ethische Entwicklung und Verwendung von KI in unseren Forschungen und Produkten bestimmen. In Übereinstimmung mit diesen Prinzipien arbeitet das TensorFlow-Team daran, Entwicklern Tools und Techniken zur Verfügung zu stellen, mit denen sie die RAI-Praktiken (Responsible AI) einhalten können.

In diesem Handbuch finden Sie Anleitungen zum Anwenden von Tools im Responsible AI Toolkit, um einen zusammenhängenden Workflow zu entwickeln, der Ihren spezifischen Anwendungsfällen und Produktanforderungen entspricht. Zu den Tools in diesem Handbuch gehören Tools, die in Bereichen wie Fairness und Transparenz angewendet werden können. Dies ist ein aktiver Entwicklungsbereich bei Google. Sie können davon ausgehen, dass dieser Leitfaden Anleitungen für weitere verwandte Bereiche wie Datenschutz , Erklärbarkeit und Robustheit enthält.

Leitfaden Organisation

API-Dokumentation und Anleitung

Für jedes Tool geben wir Anleitungen dazu, was das Tool tut, wo es in Ihren Workflow passt und welche Überlegungen zur Verwendung es macht. Gegebenenfalls fügen wir für jedes Tool eine Seite "Installieren" auf der Registerkarte "Handbuch" und auf der Registerkarte "API" eine detaillierte API-Dokumentation hinzu. Für einige Tools enthalten wir auch technische Handbücher, die Konzepte veranschaulichen, die Benutzer möglicherweise finden herausfordernd bei der Anwendung.

Tutorials

Wann immer möglich, bieten wir Notebook-Tutorials an, die zeigen, wie Tools im RAI Toolkit angewendet werden können. Dies sind in der Regel Spielzeugbeispiele, die ausgewählt wurden, um ein bestimmtes Werkzeug ins Rampenlicht zu rücken. Wenn Sie Fragen dazu haben oder wenn es zusätzliche Anwendungsfälle gibt, die in Tutorials behandelt werden sollen , wenden Sie sich bitte an tf-responsible-ai@google.com .

Weitere Überlegungen

Das Entwerfen eines verantwortungsvollen KI-Workflows erfordert einen durchdachten Ansatz in jeder Phase des ML-Lebenszyklus, von der Problemformulierung bis zur Bereitstellung und Überwachung. Über die Details Ihrer technischen Implementierung hinaus müssen Sie eine Vielzahl von soziotechnischen Entscheidungen treffen, um diese Tools anwenden zu können. Einige häufige RAI-Überlegungen, die ML-Praktiker anstellen müssen, sind:

  • In welchen demografischen Kategorien muss ich sicherstellen, dass mein Modell eine gute Leistung erbringt?
  • Wenn ich sensible Etiketten aufbewahren muss, um eine Fairness-Bewertung durchzuführen, wie sollte ich den Kompromiss zwischen Fairness und Datenschutz berücksichtigen?
  • Welche Metriken oder Definitionen sollte ich verwenden, um die Fairness zu bewerten?
  • Welche Informationen sollte ich in meine Modell- und Datentransparenzartefakte aufnehmen?

Die Antworten auf diese und viele andere Fragen hängen von Ihrem spezifischen Anwendungsfall und den Produktanforderungen ab. Daher können wir Ihnen nicht genau sagen, was zu tun ist, sondern geben Hinweise für verantwortungsvolle Entscheidungen mit hilfreichen Tipps und Links zu relevanten Forschungsmethoden, wann immer dies möglich ist. Wenn Sie Ihren verantwortungsvollen KI-Workflow mit TensorFlow entwickeln, geben Sie bitte Feedback an tf-responsible-ai@google.com . Das Verständnis Ihrer Erkenntnisse und Herausforderungen ist entscheidend für unsere Fähigkeit, Produkte zu entwickeln, die für alle funktionieren.