Руководство TensorFlow по ответственному искусственному интеллекту

Вступление

В 2018 году компания Google представила свои Принципы искусственного интеллекта , которые определяют этическую разработку и использование искусственного интеллекта в наших исследованиях и продуктах. В соответствии с этими принципами команда TensorFlow работает над тем, чтобы предоставить разработчикам инструменты и методы, позволяющие придерживаться практики ответственного ИИ (RAI).

В этом руководстве вы найдете рекомендации о том, как применять инструменты из Responsible AI Toolkit для разработки целостного рабочего процесса, соответствующего вашему конкретному варианту использования и потребностям продукта. Инструменты в этом руководстве включают те, которые можно применять в таких областях, как справедливость и прозрачность . Это активная область разработки в Google, и вы можете ожидать, что это руководство будет включать рекомендации по дополнительным связанным областям, таким как конфиденциальность , объяснимость и надежность.

Путеводитель Организация

Документация и руководство по API

Для каждого инструмента мы предоставим рекомендации о том, что он делает, где в вашем рабочем процессе он может подойти, а также о различных аспектах его использования. Там, где это применимо, мы добавим страницу «Установить» на вкладку «Руководство» для каждого инструмента и подробную документацию по API на вкладке «API». Для некоторых инструментов мы также включим технические руководства, демонстрирующие концепции, которые могут найти пользователи. сложности при их применении.

Учебники

Когда это возможно, мы будем предоставлять учебники для ноутбуков, показывающие, как можно применять инструменты из RAI Toolkit. Обычно это игрушечные примеры, выбранные для привлечения внимания к конкретному инструменту. Если у вас есть вопросы по этому поводу или есть дополнительные варианты использования, которые вы хотели бы рассмотреть в руководствах , свяжитесь с нами по адресу tf-responsible-ai@google.com .

Дополнительные соображения

Разработка ответственного рабочего процесса ИИ требует продуманного подхода на каждом этапе жизненного цикла машинного обучения, от постановки задачи до развертывания и мониторинга. Помимо деталей вашей технической реализации, вам нужно будет принять множество социотехнических решений, чтобы применить эти инструменты. Некоторые общие соображения RAI, которые необходимо учитывать специалистам по машинному обучению, включают:

  • В каких демографических категориях мне нужно убедиться, что моя модель работает хорошо?
  • Если я должен хранить конфиденциальные метки для выполнения оценки честности, как мне следует учитывать компромисс между честностью и конфиденциальностью?
  • Какие показатели или определения следует использовать для оценки справедливости?
  • Какую информацию я должен включить в свою модель и артефакты прозрачности данных?

Ответы на эти и многие другие вопросы зависят от вашего конкретного варианта использования и потребностей продукта. Таким образом, мы не можем точно сказать вам, что делать, но предоставим рекомендации по принятию ответственных решений с полезными советами и ссылками на соответствующие методы исследования, когда это возможно. По мере разработки ответственного рабочего процесса искусственного интеллекта с помощью TensorFlow оставляйте отзывы по адресу tf-responsible-ai@google.com . Понимание ваших знаний и проблем имеет решающее значение для нашей способности создавать продукты, которые работают для всех.