Aiuto proteggere la Grande Barriera Corallina con tensorflow sul Kaggle Join Sfida

Guida all'IA responsabile di TensorFlow

introduzione

Nel 2018, Google ha introdotto i suoi principi di intelligenza artificiale , che guidano lo sviluppo etico e l'uso dell'IA nella nostra ricerca e nei nostri prodotti. In linea con questi principi, il team di TensorFlow lavora per fornire agli sviluppatori strumenti e tecniche per aderire alle pratiche di IA responsabile (RAI).

In questa guida troverai una guida su come applicare gli strumenti nel Kit di strumenti di intelligenza artificiale responsabile per sviluppare un flusso di lavoro coerente che soddisfi il tuo caso d'uso specifico e le esigenze del prodotto. Gli strumenti in questa guida includono quelli che possono essere applicati in domini come l' equità e la trasparenza . Questa è un'area di sviluppo attiva in Google e puoi aspettarti che questa guida includa indicazioni per ulteriori aree correlate, come la privacy , la spiegabilità e la solidità.

Organizzazione della guida

Documentazione e guida API

Per ogni strumento, forniremo una guida su cosa fa lo strumento, dove potrebbe adattarsi nel tuo flusso di lavoro e le sue varie considerazioni sull'utilizzo. Ove applicabile, includeremo una pagina "Installa" nella scheda "Guida" per ogni strumento e una documentazione API dettagliata nella scheda "API". Per alcuni strumenti, includeremo anche guide tecniche che dimostrano concetti che gli utenti potrebbero trovare impegnativo quando li si applica.

Tutorial

Quando possibile, forniremo tutorial per notebook che mostrano come possono essere applicati gli strumenti nel RAI Toolkit. Questi sono in genere esempi di giocattoli scelti per mettere in risalto uno strumento specifico. Se hai domande su questi o se ci sono casi d'uso aggiuntivi che vorresti vedere esplorati nei tutorial , contattaci all'indirizzo tf-responsible-ai@google.com .

Considerazioni aggiuntive

La progettazione di un flusso di lavoro AI responsabile richiede un approccio ponderato in ogni fase del ciclo di vita del ML, dalla formulazione del problema all'implementazione e al monitoraggio. Oltre ai dettagli della tua implementazione tecnica, dovrai prendere una serie di decisioni sociotecniche per applicare questi strumenti. Alcune considerazioni comuni della RAI che i professionisti del ML devono fare includono:

  • In quali categorie demografiche ho bisogno per assicurarmi che il mio modello funzioni bene?
  • Se devo archiviare etichette sensibili per eseguire una valutazione dell'equità, come devo considerare il compromesso tra equità e privacy?
  • Quali metriche o definizioni devo utilizzare per valutare l'equità?
  • Quali informazioni devo includere nel mio modello e negli artefatti per la trasparenza dei dati?

Le risposte a queste e molte altre domande dipendono dal caso d'uso specifico e dalle esigenze del prodotto. Pertanto, non possiamo dirti esattamente cosa fare, ma forniremo una guida per prendere decisioni responsabili, con suggerimenti utili e collegamenti a metodi di ricerca pertinenti quando possibile. Man mano che sviluppi il tuo flusso di lavoro AI responsabile con TensorFlow, fornisci un feedback a tf-responsible-ai@google.com . Comprendere i tuoi apprendimenti e le tue sfide è fondamentale per la nostra capacità di creare prodotti che funzionino per tutti.