Guida all'IA responsabile di TensorFlow

Nel 2018, Google ha introdotto i suoi Principi AI , che guidano lo sviluppo etico e l'uso dell'IA nella ricerca e nei prodotti. In linea con questi principi, il team di TensorFlow lavora per fornire agli sviluppatori strumenti e tecniche per aderire alle pratiche dell'IA responsabile (RAI).

In questa guida, troverai indicazioni su come applicare gli strumenti nel Responsible AI Toolkit per sviluppare un flusso di lavoro coerente che soddisfi il tuo caso d'uso specifico e le tue esigenze di prodotto. Gli strumenti in questa guida includono quelli che possono essere applicati in domini come l' equità e la trasparenza . Questa è un'area di sviluppo attiva in Google e puoi aspettarti che questa guida includa indicazioni per aree correlate aggiuntive, come privacy , spiegabilità e solidità.

Organizzazione della guida

Per ogni strumento vengono fornite indicazioni su ciò che fa lo strumento, dove potrebbe adattarsi al flusso di lavoro e le sue varie considerazioni sull'utilizzo. Ove applicabile, nella scheda "Guida" di ogni strumento è inclusa una pagina "Installa" e nella scheda "API" è inclusa una documentazione dettagliata dell'API. Per alcuni strumenti, vengono fornite guide tecniche che illustrano concetti che gli utenti potrebbero trovare difficile quando li applicano.

Quando possibile, vengono forniti tutorial per notebook che mostrano come applicare gli strumenti del RAI Toolkit. Questi sono in genere esempi di giocattoli scelti per puntare i riflettori su uno strumento specifico. Se hai domande su questi o se ci sono altri casi d'uso che vorresti vedere esplorati, contatta il team di TensorFlow RAI all'indirizzo tf-responsible-ai@google.com .

Le esercitazioni seguenti possono iniziare con gli strumenti per la valutazione e la correzione dell'equità del modello.

Un'introduzione agli indicatori di equità in esecuzione in un notebook Google Colab. Fai clic sul pulsante Esegui in Google Colab per provarlo tu stesso.
Applicare gli indicatori di equità per valutare le metriche di equità comunemente utilizzate nei modelli di incorporamento del testo di TF Hub utilizzando il set di dati dei commenti civili .
Applicare gli indicatori di equità per esaminare i problemi di equità nel dataset COMPAS .
Prova MinDiff, una tecnica di correzione del modello che può migliorare le prestazioni del modello attraverso le metriche di equità comunemente utilizzate.
Usa il Model Card Toolkit con TFX per generare le Model Card .
Valuta la privacy del tuo modello utilizzando il rapporto sulla privacy di TF.

Considerazioni aggiuntive

La progettazione di un flusso di lavoro di intelligenza artificiale responsabile richiede un approccio ponderato in ogni fase del ciclo di vita del ML, dalla formulazione del problema all'implementazione e al monitoraggio. Al di là dei dettagli della tua implementazione tecnica, dovrai prendere una serie di decisioni sociotecniche per applicare questi strumenti. Alcune considerazioni RAI comuni che i professionisti del riciclaggio devono fare includono:

  • In quali categorie demografiche ho bisogno per assicurarmi che il mio modello funzioni bene?
  • Se devo conservare etichette sensibili per eseguire una valutazione di correttezza, come devo considerare il compromesso tra correttezza e privacy?
  • Quali parametri o definizioni devo utilizzare per valutare l'equità?
  • Quali informazioni devo includere nel mio modello e negli artefatti di trasparenza dei dati?

Le risposte a queste e a molte altre domande dipendono dal caso d'uso specifico e dalle esigenze del prodotto. Pertanto, non possiamo dirti esattamente cosa fare, ma forniremo indicazioni per prendere decisioni responsabili, con suggerimenti utili e collegamenti a metodi di ricerca pertinenti, ove possibile. Mentre sviluppi il tuo flusso di lavoro IA responsabile con TensorFlow, fornisci un feedback all'indirizzo tf-responsible-ai@google.com . Comprendere i tuoi apprendimenti e le tue sfide è fondamentale per la nostra capacità di creare prodotti che funzionino per tutti.