На этой странице представлена информация об обновлениях API tf.lite.TFLiteConverter
Python в TensorFlow 2.x.
ТензорФлоу 2.3
- Поддержка целочисленного (ранее только плавающего) типа ввода/вывода для целочисленных квантованных моделей с использованием новых атрибутов
inference_input_type
иinference_output_type
. Обратитесь к этому примеру использования . - Поддержка преобразования и изменения размеров моделей с динамическими размерами.
- Добавлен новый экспериментальный режим квантования с 16-битными активациями и 8-битными весами.
- Поддержка целочисленного (ранее только плавающего) типа ввода/вывода для целочисленных квантованных моделей с использованием новых атрибутов
ТензорФлоу 2.2
- По умолчанию используется преобразование на основе MLIR , передовая технология компиляции Google для машинного обучения. Это позволяет преобразовывать новые классы моделей, включая Mask R-CNN, Mobile BERT и т. д., и поддерживает модели с функциональным потоком управления.
TensorFlow 2.0 против TensorFlow 1.x
-
target_ops
переименован вtarget_spec.supported_ops
- Удалены следующие атрибуты:
- квантизация :
inference_type
,quantized_input_stats
,post_training_quantize
,default_ranges_stats
,reorder_across_fake_quant
,change_concat_input_ranges
,get_input_arrays()
. Вместо этого обучение с учетом квантования поддерживается через APItf.keras
, а квантование после обучения использует меньше атрибутов. - визуализация :
output_format
,dump_graphviz_dir
,dump_graphviz_video
. Вместо этого для визуализации модели TensorFlow Lite рекомендуется использовать visualize.py . - замороженные графы :
drop_control_dependency
, так как замороженные графы не поддерживаются в TensorFlow 2.x.
- квантизация :
- Удалены другие API конвертера, такие как
tf.lite.toco_convert
иtf.lite.TocoConverter
- Удалены другие связанные API, такие как
tf.lite.OpHint
иtf.lite.constants
(tf.lite.constants.*
были сопоставлены с типами данныхtf.*
TensorFlow, чтобы уменьшить дублирование)
-