Esta página fornece informações sobre as atualizações feitas na API Python tf.lite.TFLiteConverter
no TensorFlow 2.x.
TensorFlow 2.3
- Suporta tipo de entrada/saída integer (anteriormente, apenas float) para modelos quantizados inteiros usando os novos atributos
inference_input_type
einference_output_type
. Consulte este exemplo de uso . - Suporta conversão e redimensionamento de modelos com dimensões dinâmicas.
- Adicionado um novo modo de quantização experimental com ativações de 16 bits e pesos de 8 bits.
- Suporta tipo de entrada/saída integer (anteriormente, apenas float) para modelos quantizados inteiros usando os novos atributos
TensorFlow 2.2
- Por padrão, aproveite a conversão baseada em MLIR , a tecnologia de compilador de ponta do Google para aprendizado de máquina. Isso permite a conversão de novas classes de modelos, incluindo Mask R-CNN, Mobile BERT, etc e suporta modelos com fluxo de controle funcional.
TensorFlow 2.0 x TensorFlow 1.x
-
target_ops
o atributo target_ops paratarget_spec.supported_ops
- Removidos os seguintes atributos:
- quantização :
inference_type
,quantized_input_stats
,post_training_quantize
,default_ranges_stats
,reorder_across_fake_quant
,change_concat_input_ranges
,get_input_arrays()
. Em vez disso, o treinamento com reconhecimento de quantização é suportado por meio da APItf.keras
e a quantização pós-treinamento usa menos atributos. - visualização :
output_format
,dump_graphviz_dir
,dump_graphviz_video
. Em vez disso, a abordagem recomendada para visualizar um modelo do TensorFlow Lite é usar visualize.py . - gráficos congelados :
drop_control_dependency
, pois não há suporte para gráficos congelados no TensorFlow 2.x.
- quantização :
- Removidas outras APIs de conversão, como
tf.lite.toco_convert
etf.lite.TocoConverter
- Removidas outras APIs relacionadas, como
tf.lite.OpHint
etf.lite.constants
(os tipostf.lite.constants.*
foram mapeados para os tipos de dadostf.*
TensorFlow, para reduzir a duplicação)
-