Avoir une question? Connectez-vous avec la communauté sur le forum TensorFlow Visiter le forum

Guide de l'IA responsable avec TensorFlow

Introduction

En 2018, Google a présenté ses principes liés à l'intelligence artificielle, qui ont posé les bases d'un développement et d'un usage éthiques de l'IA dans nos produits et recherches. Conformément à ces principes, l'équipe TensorFlow s'efforce de fournir aux développeurs des outils et techniques pour adhérer aux pratiques d'IA responsable.

Ce guide vous livre des indications sur la façon d'utiliser les outils du kit d'IA responsable en vue de développer un workflow cohérent qui répond à votre cas d'utilisation spécifique et aux besoins du produit. Certains de ces outils peuvent être appliqués dans des domaines tels que l'équité et la transparence. Google travaille activement sur l'IA. Aussi, vous pouvez vous attendre à ce que d'autres domaines connexes, comme la confidentialité, l'explicabilité et la robustesse, soient également abordés dans ce guide.

Organisation du guide

Directives et documentation sur l'API

Nous vous expliquons ce que fait chaque outil, où les intégrer dans votre workflow et comment les utiliser, entre autres. Le cas échéant, nous ajouterons une page "Installer" dans l'onglet "Guide" de chaque outil, ainsi qu'une documentation détaillée sur l'API dans l'onglet "API". Pour certains outils, nous fournirons également des guides techniques pour expliquer les concepts avec lesquels les utilisateurs pourraient rencontrer des difficultés lors de la mise en pratique.

Tutoriels

Dans la mesure du possible, nous proposerons des tutoriels sur les notebooks pour montrer comment les outils du kit d'IA responsable peuvent être mis en place. Il s'agit généralement d'exemples de jouets choisis pour mettre en lumière un outil spécifique. Si vous avez des questions ou que vous voulez voir d'autres cas d'utilisation traités dans les tutoriels, contactez-nous à l'adresse tf-responsible-ai@google.com.

Informations complémentaires

Pour concevoir un workflow d'IA responsable, il convient d'avoir une approche réfléchie à chaque étape du cycle de vie du ML (de la formulation du problème jusqu'au déploiement et à la surveillance). Au-delà des détails de votre implémentation technique, vous devrez prendre diverses décisions sociotechniques afin d'appliquer ces outils. Voici quatre questions courantes que les professionnels du ML doivent se poser en termes d'IA responsable :

  • Dans quelles catégories démographiques dois-je vérifier que mon modèle fonctionne correctement ?
  • Si je dois stocker des étiquettes sensibles pour évaluer l'équité, comment trouver un compromis entre équité et confidentialité ?
  • Quelles métriques ou définitions dois-je utiliser pour évaluer l'équité ?
  • Quelles informations dois-je inclure dans mon modèle et dans les artefacts de transparence des données ?

Les réponses à ces questions et à bien d'autres dépendent de votre cas d'utilisation spécifique et des besoins du produit. Nous ne pouvons donc pas vous dire quoi faire précisément. En revanche, nous pouvons vous fournir des indications pour prendre des décisions responsables, accompagnées de conseils utiles et de liens vers des méthodes de recherche pertinentes, dans la mesure du possible. Lorsque vous développez votre workflow d'IA responsable avec TensorFlow, adressez vos commentaires à tf-responsible-ai@google.com. Pour que nous puissions créer des produits qui conviennent à tous, il est essentiel de savoir ce que vous avez appris et de connaître les difficultés que vous avez rencontrées.