Помогают защитить Большой Барьерный Риф с TensorFlow на Kaggle Присоединяйтесь вызов

Руководство по ответственному использованию искусственного интеллекта TensorFlow

Введение

В 2018 году, Google представил свои принципы искусственного интеллекта , которые направляют этическое развитие и использование ИИ в нашем исследовании и продукции. В соответствии с этими принципами команда TensorFlow работает над тем, чтобы предоставить разработчикам инструменты и методы, позволяющие придерживаться практики ответственного ИИ (RAI).

В этом руководстве вы найдете рекомендации о том, как применять инструменты из Responsible AI Toolkit для разработки целостного рабочего процесса, соответствующего вашему конкретному варианту использования и потребностям продукта. Инструменты в данном руководстве , включают те , которые могут быть применены в таких областях, как справедливость и прозрачность. Это активная область развития в Google, и вы можете ожидать , что это руководство включает указание дополнительных смежных областей, такие , как неприкосновенность частной жизни, explainability и надежность.

Путеводитель Организация

Документация и руководство по API

Для каждого инструмента мы предоставим рекомендации о том, что он делает, где в вашем рабочем процессе он может подойти, а также о различных аспектах его использования. Там, где это применимо, мы добавим страницу «Установить» на вкладку «Руководство» для каждого инструмента и подробную документацию по API на вкладке «API». Для некоторых инструментов мы также включим технические руководства, демонстрирующие концепции, которые могут найти пользователи. сложности при их применении.

Учебники

Когда это возможно, мы будем предоставлять учебники для ноутбуков, показывающие, как можно применять инструменты из RAI Toolkit. Обычно это игрушечные примеры, выбранные для привлечения внимания к конкретному инструменту. Если у вас есть вопросы о них, или если есть дополнительные случаи использования вы хотели бы видеть изучить в учебниках , пожалуйста , обратиться к нам по адресу tf-responsible-ai@google.com .

Дополнительные соображения

Разработка ответственного рабочего процесса ИИ требует продуманного подхода на каждом этапе жизненного цикла машинного обучения, от постановки задачи до развертывания и мониторинга. Помимо деталей вашей технической реализации, вам нужно будет принять множество социотехнических решений, чтобы применить эти инструменты. Некоторые общие соображения RAI, которые необходимо учитывать специалистам по машинному обучению, включают:

  • В каких демографических категориях мне нужно убедиться, что моя модель работает хорошо?
  • Если я должен хранить конфиденциальные метки для выполнения оценки честности, как мне следует учитывать компромисс между честностью и конфиденциальностью?
  • Какие показатели или определения следует использовать для оценки справедливости?
  • Какую информацию я должен включить в свою модель и артефакты прозрачности данных?

Ответы на эти и многие другие вопросы зависят от вашего конкретного варианта использования и потребностей продукта. Таким образом, мы не можем точно сказать вам, что делать, но предоставим рекомендации по принятию ответственных решений с полезными советами и ссылками на соответствующие методы исследования, когда это возможно. При разработке ответственного рабочего процесса AI с TensorFlow, пожалуйста , обеспечить обратную связь на tf-responsible-ai@google.com . Понимание ваших знаний и проблем имеет решающее значение для нашей способности создавать продукты, которые работают для всех.