Przewodnik po odpowiedzialnej sztucznej inteligencji TensorFlow

Wprowadzenie

W 2018 r.Google wprowadziło zasady sztucznej inteligencji , które kierują etycznym rozwojem i wykorzystaniem sztucznej inteligencji w naszych badaniach i produktach. Zgodnie z tymi zasadami zespół TensorFlow pracuje nad dostarczeniem programistom narzędzi i technik umożliwiających przestrzeganie praktyk odpowiedzialnej sztucznej inteligencji (RAI).

W tym przewodniku znajdziesz wskazówki, jak stosować narzędzia z zestawu narzędzi odpowiedzialnej sztucznej inteligencji, aby opracować spójny przepływ pracy, który będzie służył konkretnemu przypadkowi użycia i potrzebom produktu. Narzędzia w tym przewodniku obejmują narzędzia, które można zastosować w takich dziedzinach, jak uczciwość i przejrzystość . Jest to aktywny obszar rozwoju w Google i możesz oczekiwać, że ten przewodnik będzie zawierał wskazówki dotyczące dodatkowych powiązanych obszarów, takich jak prywatność , możliwości wyjaśnienia i solidność.

Organizacja przewodnika

Dokumentacja i wskazówki dotyczące API

Dla każdego narzędzia podamy wskazówki dotyczące tego, co robi to narzędzie, gdzie w Twoim przepływie pracy może pasować i jakie są różne kwestie związane z jego użyciem. W stosownych przypadkach umieścimy stronę „Instaluj” na karcie „Przewodnik” dla każdego narzędzia, a szczegółową dokumentację interfejsu API na karcie „API”. W przypadku niektórych narzędzi uwzględnimy również przewodniki techniczne przedstawiające koncepcje, które użytkownicy mogą znaleźć trudne przy ich stosowaniu.

Poradniki

Jeśli to możliwe, udostępnimy samouczki dotyczące notebooków pokazujące, jak można zastosować narzędzia z zestawu narzędzi RAI. Są to zazwyczaj przykłady zabawek wybrane w celu zwrócenia uwagi na określone narzędzie. Jeśli masz pytania na ten temat lub są dodatkowe przypadki użycia, które chciałbyś omówić w samouczkach , skontaktuj się z nami pod adresem tf-responsible-ai@google.com .

Dodatkowe uwagi

Projektowanie odpowiedzialnego przepływu pracy AI wymaga przemyślanego podejścia na każdym etapie cyklu życia ML, od sformułowania problemu po wdrożenie i monitorowanie. Poza szczegółami implementacji technicznej będziesz musiał podjąć różne decyzje socjotechniczne, aby zastosować te narzędzia. Niektóre typowe uwagi dotyczące RAI, które praktycy ML muszą wziąć pod uwagę, obejmują:

  • W jakich kategoriach demograficznych muszę mieć pewność, że mój model działa dobrze?
  • Jeśli muszę przechowywać poufne etykiety, aby przeprowadzić ocenę uczciwości, jak powinienem rozważyć kompromis między uczciwością a prywatnością?
  • Jakich wskaźników lub definicji należy użyć, aby ocenić uczciwość?
  • Jakie informacje powinienem zawrzeć w moim modelu i artefaktach przejrzystości danych?

Odpowiedzi na te i wiele innych pytań zależą od konkretnego przypadku użycia i potrzeb produktu. W związku z tym nie możemy powiedzieć dokładnie, co należy zrobić, ale w miarę możliwości udzielimy wskazówek dotyczących podejmowania odpowiedzialnych decyzji, wraz z przydatnymi wskazówkami i linkami do odpowiednich metod badawczych. W miarę rozwijania odpowiedzialnego przepływu pracy sztucznej inteligencji w TensorFlow prześlij opinię na adres tf-responsible-ai@google.com . Zrozumienie Twoich doświadczeń i wyzwań ma kluczowe znaczenie dla naszej zdolności do tworzenia produktów, które działają dla każdego.