การหาปริมาณหลังการฝึกเป็นเทคนิคการแปลงที่สามารถลดขนาดโมเดลในขณะที่ยังปรับปรุงเวลาแฝงของตัวเร่งความเร็วของ CPU และฮาร์ดแวร์ด้วยความแม่นยำของแบบจำลองลดลงเล็กน้อย คุณสามารถวัดปริมาณโมเดลลอยตัว TensorFlow ที่ได้รับการฝึกอบรมมาแล้ว เมื่อคุณแปลงเป็นรูปแบบ TensorFlow Lite โดยใช้ TensorFlow Lite Converter
วิธีการเพิ่มประสิทธิภาพ
มีตัวเลือกการวัดปริมาณหลังการฝึกอบรมหลายแบบให้เลือก นี่คือตารางสรุปตัวเลือกและประโยชน์ที่ได้รับ:
เทคนิค | ประโยชน์ | ฮาร์ดแวร์ |
---|---|---|
การหาปริมาณช่วงไดนามิก | เล็กลง 4 เท่า เพิ่มความเร็ว 2x-3x | ซีพียู |
การหาจำนวนเต็มจำนวนเต็ม | เล็กลง 4 เท่า เพิ่มความเร็ว 3 เท่า | CPU, Edge TPU, ไมโครคอนโทรลเลอร์ |
การหาปริมาณ Float16 | เล็กกว่า 2 เท่า เร่งความเร็ว GPU | ซีพียู, GPU |
โครงสร้างการตัดสินใจต่อไปนี้สามารถช่วยกำหนดวิธีการหาปริมาณหลังการฝึกที่เหมาะสมที่สุดสำหรับกรณีการใช้งานของคุณ:
การหาปริมาณช่วงไดนามิก
การหาปริมาณช่วงไดนามิกเป็นจุดเริ่มต้นที่แนะนำ เนื่องจากช่วยลดการใช้หน่วยความจำและการคำนวณที่เร็วขึ้น โดยที่คุณไม่ต้องจัดเตรียมชุดข้อมูลตัวแทนสำหรับการสอบเทียบ การหาปริมาณประเภทนี้ จะวัดปริมาณเฉพาะน้ำหนักจากจุดลอยตัวเป็นจำนวนเต็ม ณ เวลาที่แปลงเท่านั้น ซึ่งให้ความแม่นยำ 8 บิต:
import tensorflow as tf converter = tf.lite.TFLiteConverter.from_saved_model(saved_model_dir) converter.optimizations = [tf.lite.Optimize.DEFAULT] tflite_quant_model = converter.convert()
เพื่อลดเวลาแฝงระหว่างการอนุมาน ตัวดำเนินการ "ช่วงไดนามิก" จะกำหนดปริมาณการเปิดใช้งานแบบไดนามิกตามช่วงเป็น 8 บิต และทำการคำนวณด้วยน้ำหนัก 8 บิตและการเปิดใช้งาน การเพิ่มประสิทธิภาพนี้ให้เวลาแฝงใกล้เคียงกับการอนุมานแบบจุดตายตัวทั้งหมด อย่างไรก็ตาม เอาต์พุตจะยังคงถูกจัดเก็บโดยใช้จุดลอยตัว ดังนั้นความเร็วที่เพิ่มขึ้นของการดำเนินการช่วงไดนามิกจึงน้อยกว่าการคำนวณแบบจุดตายตัวแบบเต็ม
การหาจำนวนเต็มจำนวนเต็ม
คุณสามารถรับการปรับปรุงเวลาแฝงเพิ่มเติม ลดการใช้หน่วยความจำสูงสุด และความเข้ากันได้กับอุปกรณ์ฮาร์ดแวร์หรือตัวเร่งความเร็วที่เป็นจำนวนเต็มเท่านั้น โดยตรวจสอบให้แน่ใจว่าแบบจำลองทางคณิตศาสตร์ทั้งหมดเป็นจำนวนเต็มในเชิงปริมาณ
สำหรับการหาจำนวนเต็มจำนวนเต็ม คุณต้องสอบเทียบหรือประมาณค่าช่วง กล่าวคือ (ต่ำสุด สูงสุด) ของเทนเซอร์จุดทศนิยมทั้งหมดในแบบจำลอง ไม่เหมือนกับเทนเซอร์คงที่ เช่น น้ำหนักและอคติ เทนเซอร์แบบแปรผัน เช่น อินพุตโมเดล การเปิดใช้งาน (เอาต์พุตของเลเยอร์ระดับกลาง) และเอาต์พุตของโมเดลไม่สามารถสอบเทียบได้ เว้นแต่เราจะรันรอบการอนุมานสองสามรอบ ด้วยเหตุนี้ คอนเวอร์เตอร์จึงต้องการชุดข้อมูลที่เป็นตัวแทนในการปรับเทียบ ชุดข้อมูลนี้สามารถเป็นส่วนย่อยขนาดเล็ก (ประมาณ 100-500 ตัวอย่าง) ของข้อมูลการฝึกอบรมหรือการตรวจสอบ อ้างอิงถึงฟังก์ชัน representative_dataset()
ด้านล่าง
จากเวอร์ชัน TensorFlow 2.7 คุณสามารถระบุชุดข้อมูลที่เป็นตัวแทนผ่าน ลายเซ็น ได้ดังตัวอย่างต่อไปนี้:
def representative_dataset(): for data in dataset: yield { "image": data.image, "bias": data.bias, }
หากมีลายเซ็นมากกว่าหนึ่งรายการในโมเดล TensorFlow ที่กำหนด คุณสามารถระบุชุดข้อมูลหลายชุดโดยระบุคีย์ลายเซ็น:
def representative_dataset(): # Feed data set for the "encode" signature. for data in encode_signature_dataset: yield ( "encode", { "image": data.image, "bias": data.bias, } ) # Feed data set for the "decode" signature. for data in decode_signature_dataset: yield ( "decode", { "image": data.image, "hint": data.hint, }, )
คุณสามารถสร้างชุดข้อมูลตัวแทนได้โดยการจัดเตรียมรายการเทนเซอร์อินพุต:
def representative_dataset(): for data in tf.data.Dataset.from_tensor_slices((images)).batch(1).take(100): yield [tf.dtypes.cast(data, tf.float32)]
ตั้งแต่เวอร์ชัน TensorFlow 2.7 เราขอแนะนำให้ใช้วิธีการแบบอิงลายเซ็นแทนวิธีการอิงตามรายการเทนเซอร์อินพุต เนื่องจากการจัดลำดับเทนเซอร์อินพุตสามารถพลิกได้อย่างง่ายดาย
สำหรับการทดสอบ คุณสามารถใช้ชุดข้อมูลจำลองได้ดังนี้:
def representative_dataset(): for _ in range(100): data = np.random.rand(1, 244, 244, 3) yield [data.astype(np.float32)]
จำนวนเต็มพร้อม float fallback (โดยใช้อินพุต/เอาต์พุต float เริ่มต้น)
ในการหาจำนวนเต็มของแบบจำลอง แต่ใช้ตัวดำเนินการ float เมื่อไม่มีการนำจำนวนเต็มไปใช้ (เพื่อให้แน่ใจว่าการแปลงจะเกิดขึ้นอย่างราบรื่น) ให้ทำตามขั้นตอนต่อไปนี้:
import tensorflow as tf converter = tf.lite.TFLiteConverter.from_saved_model(saved_model_dir) converter.optimizations = [tf.lite.Optimize.DEFAULT] converter.representative_dataset = representative_dataset tflite_quant_model = converter.convert()
จำนวนเต็มเท่านั้น
การสร้างโมเดลจำนวนเต็มเท่านั้นเป็นกรณีการใช้งานทั่วไปสำหรับ TensorFlow Lite สำหรับไมโครคอนโทรลเลอร์ และ Coral Edge TPU
นอกจากนี้ เพื่อให้แน่ใจว่าเข้ากันได้กับอุปกรณ์ที่เป็นจำนวนเต็มเท่านั้น (เช่น ไมโครคอนโทรลเลอร์ 8 บิต) และตัวเร่งความเร็ว (เช่น Coral Edge TPU) คุณสามารถบังคับใช้การควอนไทซ์จำนวนเต็มแบบเต็มสำหรับ ops ทั้งหมดรวมถึงอินพุตและเอาต์พุต โดยใช้ขั้นตอนต่อไปนี้:
import tensorflow as tf converter = tf.lite.TFLiteConverter.from_saved_model(saved_model_dir) converter.optimizations = [tf.lite.Optimize.DEFAULT] converter.representative_dataset = representative_dataset converter.target_spec.supported_ops = [tf.lite.OpsSet.TFLITE_BUILTINS_INT8] converter.inference_input_type = tf.int8 # or tf.uint8 converter.inference_output_type = tf.int8 # or tf.uint8 tflite_quant_model = converter.convert()
การหาปริมาณ Float16
คุณสามารถลดขนาดของแบบจำลองจุดลอยตัวได้โดยการหาปริมาณน้ำหนักเป็น float16 ซึ่งเป็นมาตรฐาน IEEE สำหรับตัวเลขทศนิยม 16 บิต ในการเปิดใช้งานการหาปริมาณน้ำหนัก float16 ให้ใช้ขั้นตอนต่อไปนี้:
import tensorflow as tf converter = tf.lite.TFLiteConverter.from_saved_model(saved_model_dir) converter.optimizations = [tf.lite.Optimize.DEFAULT] converter.target_spec.supported_types = [tf.float16] tflite_quant_model = converter.convert()
ข้อดีของการควอนไทซ์ float16 มีดังนี้:
- ลดขนาดโมเดลลงครึ่งหนึ่ง (เนื่องจากน้ำหนักทั้งหมดกลายเป็นครึ่งหนึ่งของขนาดเดิม)
- ทำให้สูญเสียความแม่นยำน้อยที่สุด
- รองรับผู้ได้รับมอบหมายบางส่วน (เช่น ผู้รับมอบสิทธิ์ GPU) ซึ่งสามารถทำงานโดยตรงกับข้อมูล float16 ส่งผลให้ดำเนินการได้เร็วกว่าการคำนวณ float32
ข้อเสียของการหาปริมาณ float16 มีดังนี้:
- มันไม่ได้ลดเวลาแฝงมากเท่ากับการหาปริมาณของคณิตศาสตร์จุดคงที่
- โดยค่าเริ่มต้น โมเดลเชิงปริมาณ float16 จะ "ดีควอไทซ์" ค่าน้ำหนักเป็น float32 เมื่อรันบน CPU (โปรดทราบว่าตัวแทน GPU จะไม่ทำการดีควอนท์ไลซ์นี้ เนื่องจากสามารถทำงานกับข้อมูล float16 ได้)
จำนวนเต็มเท่านั้น: การเปิดใช้งาน 16 บิตด้วยน้ำหนัก 8 บิต (ทดลอง)
นี่คือแผนการหาปริมาณการทดลอง คล้ายกับรูปแบบ "จำนวนเต็มเท่านั้น" แต่การเปิดใช้งานจะถูกกำหนดปริมาณตามช่วงของพวกมันถึง 16 บิต น้ำหนักจะถูกหาปริมาณเป็นจำนวนเต็ม 8 บิต และอคติจะถูกกำหนดปริมาณเป็นจำนวนเต็ม 64 บิต นี่เรียกว่าการควอนไทซ์ขนาด 16x8 เพิ่มเติม
ข้อได้เปรียบหลักของการหาปริมาณนี้คือสามารถปรับปรุงความแม่นยำได้อย่างมาก แต่เพิ่มขนาดโมเดลเพียงเล็กน้อยเท่านั้น
import tensorflow as tf converter = tf.lite.TFLiteConverter.from_saved_model(saved_model_dir) converter.representative_dataset = representative_dataset converter.optimizations = [tf.lite.Optimize.DEFAULT] converter.target_spec.supported_ops = [tf.lite.OpsSet.EXPERIMENTAL_TFLITE_BUILTINS_ACTIVATIONS_INT16_WEIGHTS_INT8] tflite_quant_model = converter.convert()
หากโอเปอเรเตอร์บางตัวในโมเดลไม่รองรับการควอนไทซ์ขนาด 16x8 โมเดลจะยังคงสามารถควอนไทซ์ได้ แต่โอเปอเรเตอร์ที่ไม่รองรับจะถูกเก็บไว้ในทศนิยม ควรเพิ่มตัวเลือกต่อไปนี้ใน target_spec เพื่ออนุญาต
import tensorflow as tf converter = tf.lite.TFLiteConverter.from_saved_model(saved_model_dir) converter.representative_dataset = representative_dataset converter.optimizations = [tf.lite.Optimize.DEFAULT] converter.target_spec.supported_ops = [tf.lite.OpsSet.EXPERIMENTAL_TFLITE_BUILTINS_ACTIVATIONS_INT16_WEIGHTS_INT8, tf.lite.OpsSet.TFLITE_BUILTINS] tflite_quant_model = converter.convert()
ตัวอย่างของกรณีการใช้งานที่มีการปรับปรุงความแม่นยำโดยรูปแบบการควอนตัมนี้ ได้แก่ * ความละเอียดสูงสุด * การประมวลผลสัญญาณเสียง เช่น การตัดเสียงรบกวนและการสร้างบีมฟอร์มมิ่ง * การลดสัญญาณรบกวนของภาพ * การสร้าง HDR ใหม่จากภาพเดียว
ข้อเสียของการหาปริมาณนี้คือ:
- การอนุมานในปัจจุบันช้ากว่าจำนวนเต็ม 8 บิตอย่างเห็นได้ชัดเนื่องจากขาดการนำเคอร์เนลที่ปรับให้เหมาะสมมาใช้
- ขณะนี้ไม่สามารถทำงานร่วมกับผู้ได้รับมอบหมาย TFLite ที่เร่งฮาร์ดแวร์ที่มีอยู่ได้
สามารถดูบทช่วยสอนสำหรับโหมดการหาปริมาณได้ ที่นี่
ความถูกต้องของแบบจำลอง
เนื่องจากตุ้มน้ำหนักเป็นการวัดปริมาณหลังการฝึก จึงอาจมีการสูญเสียความแม่นยำ โดยเฉพาะอย่างยิ่งสำหรับเครือข่ายขนาดเล็ก โมเดลเชิงปริมาณที่ผ่านการฝึกอบรมล่วงหน้ามีให้สำหรับเครือข่ายเฉพาะบน TensorFlow Hub สิ่งสำคัญคือต้องตรวจสอบความถูกต้องของแบบจำลองเชิงปริมาณเพื่อตรวจสอบว่าความแม่นยำที่ลดลงนั้นอยู่ในขอบเขตที่ยอมรับได้ มีเครื่องมือในการประเมินความถูกต้องของ แบบจำลอง TensorFlow Lite
อีกทางเลือกหนึ่ง หากความแม่นยำลดลงสูงเกินไป ให้พิจารณาใช้ การฝึกอบรมการรู้เชิงปริมาณ อย่างไรก็ตาม การทำเช่นนี้จำเป็นต้องมีการปรับเปลี่ยนระหว่างการฝึกโมเดลเพื่อเพิ่มโหนด quantization ปลอม ในขณะที่เทคนิคการหา quantization หลังการฝึกในหน้านี้ใช้โมเดลก่อนการฝึกอบรมที่มีอยู่
การแทนค่าเทนเซอร์เชิงปริมาณ
การหาปริมาณ 8 บิตจะประมาณค่าจุดลอยตัวโดยใช้สูตรต่อไปนี้
\[real\_value = (int8\_value - zero\_point) \times scale\]
การเป็นตัวแทนมีสองส่วนหลัก:
น้ำหนักต่อแกน (aka per-channel) หรือน้ำหนักต่อเทนเซอร์ที่แสดงโดยค่าเสริมของ int8 two ในช่วง [-127, 127] โดยมีจุดศูนย์เท่ากับ 0
การเปิดใช้งาน/อินพุตต่อเทนเซอร์แสดงโดยค่าเสริมของ int8 two ในช่วง [-128, 127] โดยมีจุดศูนย์อยู่ในช่วง [-128, 127]
สำหรับมุมมองโดยละเอียดของแผนการหาปริมาณของเรา โปรดดู ข้อกำหนด การหาปริมาณของเรา ผู้จำหน่ายฮาร์ดแวร์ที่ต้องการเสียบเข้ากับอินเทอร์เฟซผู้รับมอบสิทธิ์ของ TensorFlow Lite ขอแนะนำให้ใช้รูปแบบการจัดปริมาณที่อธิบายไว้ที่นั่น