Restez organisé à l'aide des collections Enregistrez et classez les contenus selon vos préférences.

Guide de l'IA responsable TensorFlow

En 2018, Google a présenté ses principes d'IA , qui guident le développement et l'utilisation éthiques de l'IA dans la recherche et les produits. Conformément à ces principes, l'équipe TensorFlow s'efforce de fournir aux développeurs des outils et des techniques pour adhérer aux pratiques d'IA responsable (RAI).

Dans ce guide, vous trouverez des conseils sur la façon d'appliquer les outils de la boîte à outils d'IA responsable pour développer un flux de travail cohérent qui répond à votre cas d'utilisation spécifique et aux besoins de votre produit. Les outils de ce guide incluent ceux qui peuvent être appliqués dans des domaines tels que l'équité et la transparence . Il s'agit d'un domaine de développement actif chez Google, et vous pouvez vous attendre à ce que ce guide inclue des conseils pour d'autres domaines connexes, tels que la confidentialité , l' explicabilité et la robustesse.

Organisation du guide

Pour chaque outil, des conseils sur ce que fait l'outil, où il peut s'intégrer dans votre flux de travail et ses diverses considérations d'utilisation sont fournis. Le cas échéant, une page "Installer" est incluse dans l'onglet "Guide" pour chaque outil, et une documentation détaillée de l'API dans l'onglet "API". Pour certains outils, des guides techniques sont fournis qui démontrent des concepts que les utilisateurs pourraient trouver difficiles lors de leur application.

Dans la mesure du possible, des didacticiels de bloc-notes sont fournis pour montrer comment les outils de la boîte à outils RAI peuvent être appliqués. Ce sont généralement des exemples de jouets choisis pour mettre en lumière un outil spécifique. Si vous avez des questions à ce sujet ou s'il existe d'autres cas d'utilisation que vous aimeriez voir explorés, veuillez contacter l'équipe TensorFlow RAI à l' adresse tf-responsible-ai@google.com .

Les didacticiels suivants peuvent vous aider à démarrer avec des outils d'évaluation et de correction de l'équité des modèles.

Une introduction aux indicateurs d'équité exécutés dans un bloc-notes Google Colab. Cliquez sur le bouton Exécuter dans Google Colab pour l'essayer vous-même.
Appliquez des indicateurs d'équité pour évaluer les métriques d'équité couramment utilisées dans les modèles d'intégration de texte TF Hub à l'aide de l' ensemble de données Civil Comments .
Appliquer des indicateurs d'équité pour examiner les problèmes d'équité dans l'ensemble de données COMPAS .
Essayez MinDiff, une technique de correction de modèle qui peut améliorer les performances du modèle à travers les métriques d'équité couramment utilisées.
Utilisez le Model Card Toolkit avec TFX pour générer des Model Cards .
Évaluez la confidentialité de votre modèle à l'aide du rapport de confidentialité TF.

Considérations supplémentaires

La conception d'un flux de travail d'IA responsable nécessite une approche réfléchie à chaque étape du cycle de vie du ML, de la formulation du problème au déploiement et à la surveillance. Au-delà des détails de votre implémentation technique, vous devrez prendre diverses décisions sociotechniques afin d'appliquer ces outils. Certaines considérations RAI courantes que les praticiens du ML doivent prendre en compte incluent :

  • Dans quelles catégories démographiques dois-je m'assurer que mon modèle fonctionne bien ?
  • Si je dois stocker des étiquettes sensibles afin d'effectuer une évaluation de l'équité, comment dois-je considérer le compromis entre l'équité et la confidentialité ?
  • Quelles mesures ou définitions dois-je utiliser pour évaluer l'équité ?
  • Quelles informations dois-je inclure dans mon modèle et les artefacts de transparence des données ?

Les réponses à ces questions et à bien d'autres dépendent de votre cas d'utilisation spécifique et des besoins du produit. En tant que tel, nous ne pouvons pas vous dire exactement quoi faire, mais nous vous fournirons des conseils pour prendre des décisions responsables, avec des conseils utiles et des liens vers des méthodes de recherche pertinentes dans la mesure du possible. Au fur et à mesure que vous développez votre workflow d'IA responsable avec TensorFlow, veuillez envoyer vos commentaires à l'adresse tf-responsible-ai@google.com . Comprendre vos apprentissages et vos défis est essentiel pour notre capacité à créer des produits qui fonctionnent pour tout le monde.