Sách hướng dẫn về AI có trách nhiệm của TensorFlow

Vào năm 2018, Google đã giới thiệu Nguyên tắc AI của mình, hướng dẫn phát triển đạo đức và sử dụng AI trong nghiên cứu và sản phẩm. Phù hợp với những nguyên tắc này, nhóm TensorFlow làm việc để cung cấp cho các nhà phát triển các công cụ và kỹ thuật để tuân thủ các thực hành AI có trách nhiệm (RAI).

Trong sách hướng dẫn này, bạn sẽ tìm thấy hướng dẫn về cách áp dụng các công cụ trong Bộ công cụ AI có trách nhiệm để phát triển quy trình làm việc gắn kết phục vụ nhu cầu sản phẩm và trường hợp sử dụng cụ thể của bạn. Các công cụ trong sách hướng dẫn này bao gồm những công cụ có thể được áp dụng trong các lĩnh vực như công bằngminh bạch . Đây là một lĩnh vực phát triển đang hoạt động tại Google và bạn có thể mong đợi cuốn sách hướng dẫn này bao gồm hướng dẫn cho các lĩnh vực liên quan khác, chẳng hạn như quyền riêng tư , khả năng giải thíchtính mạnh mẽ.

Tổ chức Sách hướng dẫn

Đối với mỗi công cụ, hướng dẫn về những gì công cụ đó làm được, nơi nó có thể phù hợp trong quy trình làm việc của bạn và các cân nhắc sử dụng khác nhau của nó được cung cấp. Nếu có thể, trang “Cài đặt” được bao gồm trong tab “Hướng dẫn” cho mỗi công cụ và tài liệu API chi tiết trong tab “API”. Đối với một số công cụ, hướng dẫn kỹ thuật được cung cấp để thể hiện các khái niệm mà người dùng có thể cảm thấy khó khăn khi áp dụng chúng.

Bất cứ khi nào có thể, các hướng dẫn sổ tay được cung cấp cho thấy cách áp dụng các công cụ trong Bộ công cụ RAI. Đây là những ví dụ đồ chơi thường được chọn để chiếu vào một công cụ cụ thể. Nếu bạn có thắc mắc về những điều này hoặc nếu bạn muốn khám phá thêm các trường hợp sử dụng khác, vui lòng liên hệ với nhóm TensorFlow RAI tại tf-responsible-ai@google.com .

Các hướng dẫn sau đây có thể giúp bạn bắt đầu với các công cụ để đánh giá sự công bằng của mô hình và khắc phục.

Giới thiệu về các Chỉ báo Công bằng chạy trong sổ ghi chép Google Colab. Nhấp vào nút Chạy trong Google Colab để tự mình thử.
Áp dụng Chỉ số công bằng để đánh giá các chỉ số công bằng thường được sử dụng trong các mô hình Nhúng văn bản của Trung tâm TF bằng cách sử dụng Tập dữ liệu bình luận dân sự .
Áp dụng các Chỉ số Công bằng để xem xét các mối quan tâm về công bằng trong Tập dữ liệu COMPAS .
Hãy thử MinDiff, một kỹ thuật khắc phục mô hình có thể cải thiện hiệu suất mô hình trên các chỉ số công bằng thường được sử dụng.
Sử dụng Bộ công cụ thẻ mô hình với TFX để tạo Thẻ mô hình .
Đánh giá quyền riêng tư của mô hình của bạn bằng cách sử dụng Báo cáo quyền riêng tư của TF.

Cân nhắc bổ sung

Thiết kế quy trình làm việc AI có trách nhiệm đòi hỏi một cách tiếp cận chu đáo ở mỗi giai đoạn của vòng đời ML, từ việc hình thành vấn đề đến triển khai và giám sát. Ngoài các chi tiết về việc triển khai kỹ thuật của bạn, bạn sẽ cần phải đưa ra nhiều quyết định về kỹ thuật xã hội để áp dụng các công cụ này. Một số cân nhắc RAI phổ biến mà những người thực hành ML cần thực hiện bao gồm:

  • Tôi cần đảm bảo mô hình của mình hoạt động tốt trên các danh mục nhân khẩu học nào?
  • Nếu tôi phải lưu trữ các nhãn nhạy cảm để thực hiện đánh giá công bằng, tôi nên cân nhắc sự cân bằng giữa công bằng và quyền riêng tư như thế nào?
  • Tôi nên sử dụng số liệu hoặc định nghĩa nào để đánh giá tính công bằng?
  • Tôi nên đưa thông tin gì vào mô hình và tạo tác minh bạch dữ liệu của mình?

Câu trả lời cho những câu hỏi này và nhiều câu hỏi khác tùy thuộc vào trường hợp sử dụng cụ thể và nhu cầu sản phẩm của bạn. Do đó, chúng tôi không thể cho bạn biết chính xác những gì phải làm, nhưng sẽ cung cấp hướng dẫn để đưa ra quyết định có trách nhiệm, với các mẹo hữu ích và liên kết đến các phương pháp nghiên cứu có liên quan bất cứ khi nào có thể. Khi bạn phát triển quy trình làm việc AI có trách nhiệm của mình với TensorFlow, vui lòng cung cấp phản hồi tại tf-responsible-ai@google.com . Hiểu được những kiến ​​thức và thách thức của bạn là rất quan trọng đối với khả năng của chúng tôi trong việc xây dựng các sản phẩm phù hợp với mọi người.