
ความเป็นธรรมสำหรับตัวชี้วัด TensorBoard ช่วยให้การคำนวณง่ายของตัวชี้วัดความเป็นธรรมร่วมกันระบุลักษณนามไบนารีและ multiclass ด้วยปลั๊กอินนี้ คุณสามารถเห็นภาพการประเมินความเป็นธรรมสำหรับการวิ่งของคุณและเปรียบเทียบประสิทธิภาพระหว่างกลุ่มต่างๆ ได้อย่างง่ายดาย
โดยเฉพาะอย่างยิ่ง ตัวบ่งชี้ความเป็นธรรมสำหรับ TensorBoard ช่วยให้คุณประเมินและแสดงภาพประสิทธิภาพของแบบจำลอง โดยแบ่งส่วนตามกลุ่มผู้ใช้ที่กำหนดไว้ รู้สึกมั่นใจในผลลัพธ์ของคุณด้วยช่วงความมั่นใจและการประเมินที่หลายเกณฑ์
เครื่องมือที่มีอยู่จำนวนมากสำหรับการประเมินข้อกังวลด้านความเป็นธรรมนั้นใช้งานไม่ได้กับชุดข้อมูลและแบบจำลองขนาดใหญ่ ที่ Google การมีเครื่องมือที่สามารถทำงานบนระบบที่มีผู้ใช้หลายพันล้านคนเป็นสิ่งสำคัญสำหรับเรา ความเป็นธรรมชี้วัดจะช่วยให้คุณสามารถประเมินทั่วขนาดของกรณีการใช้งานใด ๆ ในสภาพแวดล้อม TensorBoard หรือ Colab
ความต้องการ
ในการติดตั้ง Fairness Indicators สำหรับ TensorBoard ให้เรียกใช้:
python3 -m virtualenv ~/tensorboard_demo
source ~/tensorboard_demo/bin/activate
pip install --upgrade pip
pip install fairness_indicators
pip install tensorboard-plugin-fairness-indicators
การสาธิต
หากคุณต้องการที่จะทดสอบความเป็นธรรมจากตัวชี้วัดใน TensorBoard คุณสามารถดาวน์โหลดผลตัวอย่าง TensorFlow รูปแบบการวิเคราะห์ประเมินผล (eval_config.json ตัวชี้วัดและไฟล์แปลง) และ demo.py ยูทิลิตี้จากแพลตฟอร์มคลาวด์ของ Google ที่นี่ โดยใช้คำสั่งดังต่อไปนี้
pip install gsutil
gsutil cp -r gs://tensorboard_plugin_fairness_indicators/ .
ไปที่ไดเร็กทอรีที่มีไฟล์ที่ดาวน์โหลด
cd tensorboard_plugin_fairness_indicators
ข้อมูลการประเมินผลนี้จะขึ้นอยู่กับ พลเรือนคอมเมนต์ชุดข้อมูลที่ คำนวณโดยใช้รูปแบบการวิเคราะห์ Tensorflow ของ model_eval_lib ห้องสมุด นอกจากนี้ยังมีไฟล์ข้อมูลสรุป TensorBoard ตัวอย่างสำหรับการอ้างอิง
demo.py ยูทิลิตี้เขียนไฟล์ข้อมูล TensorBoard สรุปซึ่งจะถูกอ่านโดย TensorBoard เพื่อแสดงความเป็นธรรมชี้วัดแดชบอร์ด (ดู TensorBoard กวดวิชา สำหรับข้อมูลเพิ่มเติมเกี่ยวกับไฟล์ข้อมูลสรุป)
ธงที่จะใช้กับ demo.py ยูทิลิตี้:
-
--logdir: Directory ที่ TensorBoard จะเขียนสรุป -
--eval_result_output_dir: Directory ที่มีผลการประเมินการประเมินโดย Tfma (ดาวน์โหลดในขั้นตอนที่ผ่านมา)
เรียกใช้ demo.py ยูทิลิตี้ที่จะเขียนสรุปผลในไดเรกทอรีบันทึก:
python demo.py --logdir=. --eval_result_output_dir=.
เรียกใช้ TensorBoard:
tensorboard --logdir=.
สิ่งนี้จะเริ่มต้นอินสแตนซ์ในเครื่อง หลังจากที่อินสแตนซ์ในเครื่องเริ่มต้นขึ้น ลิงก์จะแสดงไปยังเทอร์มินัล เปิดลิงก์ในเบราว์เซอร์ของคุณเพื่อดูแดชบอร์ดตัวบ่งชี้ความเป็นธรรม
สาธิต Colab
Fairness_Indicators_TensorBoard_Plugin_Example_Colab.ipynb มีการสาธิตแบบ end-to-end การฝึกอบรมและประเมินผลการศึกษารูปแบบและเห็นภาพความเป็นธรรมผลการประเมินใน TensorBoard
การใช้งาน
ในการใช้เครื่องบ่งชี้ความเป็นธรรมกับข้อมูลและการประเมินของคุณเอง:
รถไฟรุ่นใหม่และประเมินผลการใช้
tensorflow_model_analysis.run_model_analysisหรือtensorflow_model_analysis.ExtractEvaluateAndWriteResultAPI ใน model_eval_lib สำหรับตัวอย่างโค้ดในการทำเช่นนี้ให้ดูที่ความเป็นธรรมชี้วัด Colab ที่นี่เขียนความเป็นธรรมชี้วัดสรุปใช้
tensorboard_plugin_fairness_indicators.summary_v2APIwriter = tf.summary.create_file_writer(<logdir>) with writer.as_default(): summary_v2.FairnessIndicators(<eval_result_dir>, step=1) writer.close()เรียกใช้ TensorBoard
-
tensorboard --logdir=<logdir> - เลือกการดำเนินการประเมินใหม่โดยใช้ดรอปดาวน์ทางด้านซ้ายของแดชบอร์ดเพื่อแสดงผลลัพธ์
-