TensorFlow를 사용하여 책임감 있는 AI 사례를 ML 워크플로에 통합하는 방법을 알아보세요.
TensorFlow는 ML 커뮤니티와 리소스 및 도구 모음을 공유하여 AI의 책임감 있는 개발을 진행하도록 돕기 위해 최선을 다하고 있습니다.
책임감 있는 AI란?
AI의 발전은 도전적이고 실제적인 문제를 해결할 수 있는 새로운 기회를 창출하고 있습니다. 또한 모두에게 도움이 되는 AI 시스템을 구축하는 최선의 방법에 대한 새로운 질문을 제기하고 있습니다.
AI에 대한 권장 모범 사례
AI 시스템 설계는 소프트웨어 개발 모범 사례를 따라야 하며 인간 중심의
ML에 대한 접근
공평
AI의 영향이 부문과 사회 전반에 걸쳐 증가함에 따라 모든 사람에게 공정하고 포용적인 시스템을 만들기 위해 노력하는 것이 중요합니다.
해석 가능성
AI 시스템이 의도한 대로 작동하는지 확인하려면 AI 시스템을 이해하고 신뢰하는 것이 중요합니다.
은둔
민감한 데이터를 사용하지 않는 교육 모델에는 개인 정보 보호 보호 장치가 필요합니다.
보안
잠재적인 위협을 식별하면 AI 시스템을 안전하게 유지하는 데 도움이 될 수 있습니다.
ML 워크플로의 책임 있는 AI
책임 있는 AI 사례는 ML 워크플로의 모든 단계에 통합될 수 있습니다. 다음은 각 단계에서 고려해야 할 몇 가지 주요 질문입니다.
내 ML 시스템은 누구를 위한 것입니까?
실제 사용자가 시스템을 경험하는 방식은 예측, 권장 사항 및 결정의 진정한 영향을 평가하는 데 필수적입니다. 개발 프로세스 초기에 다양한 사용자 집합으로부터 의견을 얻어야 합니다.
대표 데이터 세트를 사용하고 있습니까?
데이터가 사용자를 나타내는 방식으로 샘플링됩니까(예: 모든 연령대에 사용되지만 고령자의 교육 데이터만 있음) 및 실제 설정(예: 연중 사용되지만 교육만 있음) 여름 데이터)?
내 데이터에 실제/인간 편향이 있습니까?
데이터의 근본적인 편향은 기존의 고정관념을 강화하는 복잡한 피드백 루프에 기여할 수 있습니다.
내 모델을 교육하는 데 어떤 방법을 사용해야 합니까?
모델에 공정성, 해석 가능성, 개인 정보 보호 및 보안을 구축하는 교육 방법을 사용합니다.
내 모델의 성능은 어떻습니까?
광범위한 사용자, 사용 사례 및 사용 컨텍스트에 걸쳐 실제 시나리오에서 사용자 경험을 평가합니다. 먼저 dogfood에서 테스트하고 반복한 다음 출시 후 계속 테스트합니다.
복잡한 피드백 루프가 있습니까?
전체 시스템 설계의 모든 것이 세심하게 제작되더라도 ML 기반 모델은 실제 라이브 데이터에 적용될 때 100% 완벽하게 작동하는 경우가 거의 없습니다. 실제 제품에서 문제가 발생하면 기존의 사회적 불이익과 일치하는지 여부와 단기 및 장기 솔루션이 어떤 영향을 미칠지 고려하십시오.
TensorFlow를 위한 책임감 있는 AI 도구
TensorFlow 생태계에는 위의 질문 중 일부를 해결하는 데 도움이 되는 일련의 도구와 리소스가 있습니다.
문제 정의
책임 있는 AI를 염두에 두고 모델을 설계하려면 다음 리소스를 사용하십시오.


데이터 구성 및 준비
다음 도구를 사용하여 잠재적 편향이 있는지 데이터를 검사합니다.


모델 평가
다음 도구를 사용하여 모델 성능을 디버그, 평가 및 시각화합니다.


커뮤니티 리소스
커뮤니티가 무엇을 하고 있는지 알아보고 참여 방법을 탐색하십시오.


우리는 참가자들에게 TensorFlow 2.2를 사용하여 Responsible AI 원칙을 염두에 두고 모델이나 애플리케이션을 구축하도록 요청했습니다. 수상자 및 기타 놀라운 프로젝트를 보려면 갤러리를 확인하세요.
