Attend the Women in ML Symposium on December 7 Register now
Organiza tus páginas con colecciones Guarda y categoriza el contenido según tus preferencias.

Guía de inteligencia artificial responsable de TensorFlow

En 2018, Google presentó sus Principios de IA , que guían el desarrollo ético y el uso de IA en investigación y productos. De acuerdo con estos principios, el equipo de TensorFlow trabaja para proporcionar a los desarrolladores herramientas y técnicas para adherirse a las prácticas de IA responsable (RAI).

En esta guía, encontrará orientación sobre cómo aplicar las herramientas del kit de herramientas de IA responsable para desarrollar un flujo de trabajo cohesivo que sirva a su caso de uso específico y a las necesidades del producto. Las herramientas de esta guía incluyen aquellas que se pueden aplicar en dominios como la equidad y la transparencia . Esta es un área activa de desarrollo en Google, y puede esperar que esta guía incluya orientación para áreas relacionadas adicionales, como privacidad , explicabilidad y solidez.

Organización de la guía

Para cada herramienta, se proporciona orientación sobre lo que hace, en qué parte de su flujo de trabajo podría encajar y sus diversas consideraciones de uso. Cuando corresponda, se incluye una página de "Instalación" en la pestaña "Guía" para cada herramienta, y documentación detallada de la API en la pestaña "API". Para algunas herramientas, se proporcionan guías técnicas que demuestran conceptos que los usuarios pueden encontrar desafiantes al aplicarlos.

Siempre que sea posible, se proporcionan tutoriales en cuadernos que muestran cómo se pueden aplicar las herramientas del RAI Toolkit. Por lo general, estos son ejemplos de juguetes elegidos para destacar una herramienta específica. Si tiene preguntas sobre estos, o si hay casos de uso adicionales que le gustaría ver explorados, comuníquese con el equipo de RAI de TensorFlow en tf-responsible-ai@google.com .

Los siguientes tutoriales pueden ayudarlo a comenzar con las herramientas para la evaluación y corrección de la imparcialidad del modelo.

Una introducción a los indicadores de equidad que se ejecutan en un cuaderno de Google Colab. Haga clic en el botón Ejecutar en Google Colab para probarlo usted mismo.
Aplique indicadores de imparcialidad para evaluar las métricas de imparcialidad de uso común en los modelos de incrustación de texto de TF Hub utilizando el conjunto de datos de comentarios civiles .
Aplicar indicadores de equidad para examinar las preocupaciones de equidad en el conjunto de datos COMPAS .
Pruebe MinDiff, una técnica de remediación de modelos que puede mejorar el rendimiento del modelo en las métricas de imparcialidad de uso común.
Utilice Model Card Toolkit con TFX para generar Model Cards .
Evalúe la privacidad de su modelo utilizando el Informe de privacidad de TF.

consideraciones adicionales

El diseño de un flujo de trabajo de IA responsable requiere un enfoque reflexivo en cada etapa del ciclo de vida de ML, desde la formulación del problema hasta la implementación y el monitoreo. Más allá de los detalles de su implementación técnica, deberá tomar una variedad de decisiones sociotécnicas para poder aplicar estas herramientas. Algunas consideraciones comunes de RAI que los profesionales de ML deben hacer incluyen:

  • ¿En qué categorías demográficas necesito asegurarme de que mi modelo funcione bien?
  • Si debo almacenar etiquetas confidenciales para realizar una evaluación de imparcialidad, ¿cómo debo considerar la compensación entre imparcialidad y privacidad?
  • ¿Qué métricas o definiciones debo usar para evaluar la equidad?
  • ¿Qué información debo incluir en mis artefactos de modelo y transparencia de datos?

Las respuestas a estas y muchas otras preguntas dependen de su caso de uso específico y de las necesidades del producto. Como tal, no podemos decirle exactamente qué hacer, pero le brindaremos orientación para tomar decisiones responsables, con consejos útiles y enlaces a métodos de investigación relevantes siempre que sea posible. A medida que desarrolla su flujo de trabajo de IA responsable con TensorFlow, envíe sus comentarios a tf-responsible-ai@google.com . Comprender sus aprendizajes y desafíos es fundamental para nuestra capacidad de crear productos que funcionen para todos.