หน้านี้ให้ข้อมูลเกี่ยวกับการอัปเดตที่ทำกับ tf.lite.TFLiteConverter
Python API ใน TensorFlow 2.x
TensorFlow 2.3
- รองรับประเภทอินพุต/เอาต์พุตจำนวนเต็ม (ก่อนหน้านี้ เฉพาะโฟลตเท่านั้น) สำหรับโมเดลเชิงปริมาณที่เป็นจำนวนเต็มโดยใช้แอตทริบิวต์
inference_input_type
และinference_output_type
ใหม่ อ้างถึง ตัวอย่างการใช้งาน นี้ - รองรับการแปลงและปรับขนาดโมเดลด้วยมิติแบบไดนามิก
- เพิ่มโหมดการควอนไทซ์แบบทดลองใหม่ด้วยการเปิดใช้งานแบบ 16 บิตและน้ำหนักแบบ 8 บิต
- รองรับประเภทอินพุต/เอาต์พุตจำนวนเต็ม (ก่อนหน้านี้ เฉพาะโฟลตเท่านั้น) สำหรับโมเดลเชิงปริมาณที่เป็นจำนวนเต็มโดยใช้แอตทริบิวต์
TensorFlow 2.2
- โดยค่าเริ่มต้น ให้ใช้ประโยชน์ จากการแปลงตาม MLIR ซึ่งเป็นเทคโนโลยีคอมไพเลอร์ล้ำสมัยของ Google สำหรับการเรียนรู้ของเครื่อง สิ่งนี้ทำให้สามารถแปลงโมเดลคลาสใหม่ๆ รวมถึง Mask R-CNN, Mobile BERT และอื่นๆ และรองรับโมเดลที่มีโฟลว์การควบคุมการทำงาน
TensorFlow 2.0 กับ TensorFlow 1.x
- เปลี่ยนชื่อแอตทริบิวต์
target_ops
เป็นtarget_spec.supported_ops
- ลบแอตทริบิวต์ต่อไปนี้:
- quantization :
inference_type
,quantized_input_stats
,post_training_quantize
,default_ranges_stats
,reorder_across_fake_quant
,change_concat_input_ranges
,get_input_arrays()
การฝึกอบรม quantize Aware นั้นได้รับการสนับสนุนผ่านtf.keras
API และ หลังการฝึก quantization จะใช้แอตทริบิวต์น้อยลง - การสร้างภาพ :
output_format
,dump_graphviz_dir
,dump_graphviz_video
แนวทางที่แนะนำสำหรับการแสดงภาพโมเดล TensorFlow Lite คือการใช้ visualize.py - กราฟ ที่หยุดนิ่ง :
drop_control_dependency
เนื่องจาก TensorFlow 2.x ไม่รองรับกราฟที่หยุดนิ่ง
- quantization :
- ลบ API ตัวแปลงอื่น ๆ เช่น
tf.lite.toco_convert
และtf.lite.TocoConverter
- ลบ API ที่เกี่ยวข้องอื่นๆ เช่น
tf.lite.OpHint
และtf.lite.constants
(ประเภทtf.lite.constants.*
ถูกแมปกับtf.*
ชนิดข้อมูล TensorFlow แล้ว เพื่อลดการซ้ำซ้อน)
- เปลี่ยนชื่อแอตทริบิวต์