Aprenda cómo integrar prácticas de IA responsable en su flujo de trabajo de ML usando TensorFlow
TensorFlow se compromete a ayudar a avanzar en el desarrollo responsable de la IA al compartir una colección de recursos y herramientas con la comunidad de ML.
¿Qué es la IA responsable?
El desarrollo de la IA está creando nuevas oportunidades para resolver problemas desafiantes del mundo real. También plantea nuevas preguntas sobre la mejor manera de construir sistemas de IA que beneficien a todos.
Mejores prácticas recomendadas para IA
El diseño de sistemas de IA debe seguir las mejores prácticas de desarrollo de software mientras se toma un enfoque centrado en el ser humano.
enfoque de ML
Justicia
A medida que el impacto de la IA aumenta en todos los sectores y sociedades, es fundamental trabajar hacia sistemas que sean justos e inclusivos para todos.
Interpretabilidad
Comprender y confiar en los sistemas de IA es importante para garantizar que funcionen según lo previsto
Privacidad
Los modelos de entrenamiento a partir de datos confidenciales necesitan garantías de preservación de la privacidad
Seguridad
Identificar amenazas potenciales puede ayudar a mantener los sistemas de IA seguros y protegidos
IA responsable en su flujo de trabajo de ML
Las prácticas responsables de IA se pueden incorporar en cada paso del flujo de trabajo de ML. Aquí hay algunas preguntas clave a considerar en cada etapa.
¿Para quién es mi sistema ML?
La forma en que los usuarios reales experimentan su sistema es esencial para evaluar el verdadero impacto de sus predicciones, recomendaciones y decisiones. Asegúrese de obtener información de un conjunto diverso de usuarios desde el principio de su proceso de desarrollo.
¿Estoy usando un conjunto de datos representativo?
¿Se muestrean sus datos de una manera que represente a sus usuarios (p. ej., se usarán para todas las edades, pero solo tiene datos de capacitación de personas mayores) y el entorno del mundo real (p. ej., se usarán durante todo el año, pero solo tiene datos del verano)?
¿Existe un sesgo del mundo real/humano en mis datos?
Los sesgos subyacentes en los datos pueden contribuir a circuitos de retroalimentación complejos que refuerzan los estereotipos existentes.
¿Qué métodos debo usar para entrenar a mi modelo?
Use métodos de entrenamiento que construyan imparcialidad, interpretabilidad, privacidad y seguridad en el modelo.
¿Cómo está funcionando mi modelo?
Evalúe la experiencia del usuario en escenarios del mundo real en un amplio espectro de usuarios, casos de uso y contextos de uso. Pruebe e itere en dogfood primero, seguido de pruebas continuas después del lanzamiento.
¿Existen bucles de retroalimentación complejos?
Incluso si todo en el diseño general del sistema está cuidadosamente elaborado, los modelos basados en ML rara vez funcionan con un 100 % de perfección cuando se aplican a datos reales y en vivo. Cuando ocurre un problema en un producto en vivo, considere si se alinea con las desventajas sociales existentes y cómo se verá afectado por las soluciones a corto y largo plazo.
Herramientas de IA responsable para TensorFlow
El ecosistema TensorFlow tiene un conjunto de herramientas y recursos para ayudar a abordar algunas de las preguntas anteriores.
Definir problema
Utilice los siguientes recursos para diseñar modelos teniendo en cuenta la IA responsable.

Obtenga más información sobre el proceso de desarrollo de IA y las consideraciones clave.

Explore, a través de visualizaciones interactivas, preguntas y conceptos clave en el ámbito de la IA responsable.
Construir y preparar datos.
Utilice las siguientes herramientas para examinar los datos en busca de posibles sesgos.

Investigue de forma interactiva su conjunto de datos para mejorar la calidad de los datos y mitigar los problemas de imparcialidad y sesgo.

Analice y transforme los datos para detectar problemas y diseñar conjuntos de funciones más efectivos.


Una escala de tono de piel más inclusiva, con licencia abierta, para que sus necesidades de recopilación de datos y creación de modelos sean más sólidas e inclusivas.
Construir y entrenar modelo
Use las siguientes herramientas para entrenar modelos usando técnicas interpretables de preservación de la privacidad y más.

Entrene modelos de aprendizaje automático para promover resultados más equitativos.


Entrene modelos de aprendizaje automático utilizando técnicas de aprendizaje federado.

Optimizar los problemas con restricciones de desigualdad.

Implemente modelos flexibles, controlados e interpretables basados en celosías.
Evaluar modelo
Depure, evalúe y visualice el rendimiento del modelo con las siguientes herramientas.

Evalúe las métricas de equidad comúnmente identificadas para clasificadores binarios y de clases múltiples.

Evalúe modelos de manera distribuida y calcule sobre diferentes segmentos de datos.




Evaluar las propiedades de privacidad de los modelos de clasificación.

Implementar y monitorear
Use las siguientes herramientas para rastrear y comunicar sobre el contexto y los detalles del modelo.

Genere tarjetas modelo con facilidad usando el kit de herramientas de tarjeta modelo.

Registre y recupere metadatos asociados con los flujos de trabajo de desarrolladores de ML y científicos de datos.

Organice los hechos esenciales del aprendizaje automático de forma estructurada.
Recursos de la comunidad
Conozca lo que está haciendo la comunidad y explore formas de involucrarse.

Ayuda a que los productos de Google sean más inclusivos y representativos de tu idioma, región y cultura.

Pedimos a los participantes que usaran TensorFlow 2.2 para crear un modelo o una aplicación teniendo en cuenta los principios de IA responsable. Echa un vistazo a la galería para ver los ganadores y otros proyectos increíbles.

Presentamos un marco para pensar en ML, equidad y privacidad.