Руководство по ответственному использованию ИИ TensorFlow

Вступление

В 2018 году Google представила свои Принципы искусственного интеллекта , которые определяют этическое развитие и использование искусственного интеллекта в наших исследованиях и продуктах. В соответствии с этими принципами команда TensorFlow работает над тем, чтобы предоставить разработчикам инструменты и методы, позволяющие придерживаться практики ответственного ИИ (RAI).

В этом руководстве вы найдете руководство по применению инструментов из набора Responsible AI Toolkit для разработки согласованного рабочего процесса, который соответствует вашему конкретному варианту использования и потребностям продукта. Инструменты в этом руководстве включают те, которые могут применяться в таких областях, как справедливость и прозрачность . Это активная область разработки в Google, и вы можете ожидать, что это руководство будет включать руководство по дополнительным связанным областям, таким как конфиденциальность , объяснимость и надежность.

Путеводитель по организации

Документация и руководство по API

Для каждого инструмента мы дадим рекомендации относительно того, что он делает, где в вашем рабочем процессе он может поместиться, а также различные особенности его использования. Там, где это возможно, мы включим страницу «Установка» на вкладку «Руководство» для каждого инструмента и подробную документацию по API на вкладке «API». Для некоторых инструментов мы также включим технические руководства, демонстрирующие концепции, которые могут найти пользователи. сложно при их применении.

Учебники

По возможности мы предоставляем обучающие материалы для записных книжек, показывающие, как можно применять инструменты из набора инструментов RAI. Обычно это игрушечные образцы, выбранные для того, чтобы привлечь внимание к конкретному инструменту. Если у вас есть вопросы по этому поводу или если есть дополнительные варианты использования, которые вы хотели бы изучить в учебных пособиях , свяжитесь с нами по адресу tf-responsible-ai@google.com .

Дополнительные соображения

Создание ответственного рабочего процесса ИИ требует вдумчивого подхода на каждом этапе жизненного цикла машинного обучения, от формулировки проблемы до развертывания и мониторинга. Помимо деталей вашей технической реализации, вам нужно будет принять множество социотехнических решений, чтобы применить эти инструменты. Некоторые общие соображения по поводу RAI, которые необходимо учитывать практикующим специалистам по ОД, включают:

  • В отношении каких демографических категорий мне нужно убедиться, что моя модель работает хорошо?
  • Если я должен хранить конфиденциальные этикетки для проведения оценки справедливости, как мне рассматривать компромисс между честностью и конфиденциальностью?
  • Какие показатели или определения мне следует использовать для оценки справедливости?
  • Какую информацию я должен включить в свою модель и артефакты прозрачности данных?

Ответы на эти и многие другие вопросы зависят от вашего конкретного варианта использования и потребностей продукта. Таким образом, мы не можем сказать вам, что именно делать, но предоставим рекомендации по принятию ответственных решений с полезными советами и ссылками на соответствующие методы исследования, когда это возможно. По мере развития вашего ответственного рабочего процесса ИИ с помощью TensorFlow отправляйте отзывы по адресу tf-responsible-ai@google.com . Понимание ваших знаний и проблем имеет решающее значение для нашей способности создавать продукты, подходящие для всех.