Poradnik dotyczący odpowiedzialnej sztucznej inteligencji TensorFlow

W 2018 r. firma Google wprowadziła zasady sztucznej inteligencji , które kierują etycznym rozwojem i wykorzystaniem sztucznej inteligencji w badaniach i produktach. Zgodnie z tymi zasadami zespół TensorFlow pracuje nad zapewnieniem programistom narzędzi i technik umożliwiających przestrzeganie praktyk odpowiedzialnej sztucznej inteligencji (RAI).

W tym przewodniku znajdziesz wskazówki, jak zastosować narzędzia z zestawu narzędzi Responsible AI Toolkit, aby opracować spójny przepływ pracy, który będzie odpowiadał Twoim konkretnym przypadkom użycia i potrzebom produktu. Narzędzia zawarte w tym przewodniku obejmują te, które można zastosować w takich dziedzinach, jak uczciwość i przejrzystość . Jest to aktywny obszar rozwoju w Google i możesz oczekiwać, że ten przewodnik będzie zawierał wskazówki dotyczące dodatkowych powiązanych obszarów, takich jak prywatność , wyjaśnialność i niezawodność.

Organizacja przewodnika

Dla każdego narzędzia podano wskazówki dotyczące tego, co robi narzędzie, gdzie w przepływie pracy może się zmieścić, a także różne kwestie związane z użytkowaniem. W stosownych przypadkach strona „Instalacja” znajduje się na karcie „Przewodnik” dla każdego narzędzia, a szczegółowa dokumentacja interfejsu API na karcie „API”. W przypadku niektórych narzędzi dostępne są przewodniki techniczne, które przedstawiają koncepcje, które użytkownicy mogą uznać za trudne podczas ich stosowania.

Tam, gdzie to możliwe, dostępne są samouczki zeszytu pokazujące, w jaki sposób można zastosować narzędzia z zestawu narzędzi RAI. Są to zazwyczaj przykłady zabawek wybranych do rzucenia światła na konkretne narzędzie. Jeśli masz pytania na ten temat lub jeśli chcesz poznać dodatkowe przypadki użycia, skontaktuj się z zespołem TensorFlow RAI pod adresem tf-responsible-ai@google.com .

Poniższe samouczki ułatwiają rozpoczęcie pracy z narzędziami do oceny i naprawy uczciwości modelu.

Wprowadzenie do wskaźników uczciwości działających w notatniku Google Colab. Kliknij przycisk Uruchom w Google Colab , aby spróbować samodzielnie.
Zastosuj wskaźniki rzetelności, aby ocenić powszechnie używane metryki rzetelności w modelach osadzania tekstu TF Hub przy użyciu zestawu danych komentarzy Civil .
Zastosuj wskaźniki uczciwości, aby zbadać kwestie uczciwości w zbiorze danych COMPAS .
Wypróbuj MinDiff, technikę naprawy modelu, która może poprawić wydajność modelu w często używanych metrykach sprawiedliwości.
Użyj Model Card Toolkit z TFX, aby wygenerować Model Cards .
Oceń prywatność swojego modelu, korzystając z raportu TF Privacy Report.

Dodatkowe uwagi

Projektowanie odpowiedzialnego przepływu pracy AI wymaga przemyślanego podejścia na każdym etapie cyklu życia ML, od formułowania problemu po wdrażanie i monitorowanie. Poza szczegółami implementacji technicznej, aby zastosować te narzędzia, będziesz musiał podjąć różne decyzje socjotechniczne. Niektóre z typowych rozważań dotyczących RAI, które praktykujący ML muszą wziąć pod uwagę, obejmują:

  • W jakich kategoriach demograficznych muszę mieć pewność, że mój model działa dobrze?
  • Jeśli muszę przechowywać poufne etykiety w celu przeprowadzenia oceny uczciwości, jak powinienem rozważyć kompromis między uczciwością a prywatnością?
  • Jakich metryk lub definicji powinienem użyć, aby ocenić uczciwość?
  • Jakie informacje należy zawrzeć w artefaktach modelu i przezroczystości danych?

Odpowiedzi na te i wiele innych pytań zależą od konkretnego przypadku użycia i potrzeb produktu. W związku z tym nie możemy dokładnie powiedzieć, co robić, ale zapewnimy wskazówki dotyczące podejmowania odpowiedzialnych decyzji, wraz z pomocnymi wskazówkami i linkami do odpowiednich metod badawczych, gdy tylko będzie to możliwe. Podczas opracowywania odpowiedzialnego przepływu pracy AI za pomocą TensorFlow prosimy o przesyłanie opinii na adres tf-responsible-ai@google.com . Zrozumienie wiedzy i wyzwań ma kluczowe znaczenie dla naszej zdolności do tworzenia produktów, które działają dla wszystkich.