Aggiornamenti API

Questa pagina fornisce informazioni sugli aggiornamenti apportati all'API Python tf.lite.TFLiteConverter in TensorFlow 2.x.

  • TensorFlow 2.3

    • Supporta il tipo di input/output intero (in precedenza, solo float) per modelli quantizzati interi utilizzando i nuovi attributi inference_input_type e inference_output_type . Fare riferimento a questo esempio di utilizzo .
    • Supporta la conversione e il ridimensionamento di modelli con dimensioni dinamiche.
    • Aggiunta una nuova modalità di quantizzazione sperimentale con attivazioni a 16 bit e pesi a 8 bit.
  • TensorFlow 2.2

    • Per impostazione predefinita, sfrutta la conversione basata su MLIR , la tecnologia di compilazione all'avanguardia di Google per l'apprendimento automatico. Ciò consente la conversione di nuove classi di modelli, tra cui Mask R-CNN, Mobile BERT, ecc. e supporta modelli con flusso di controllo funzionale.
  • TensorFlow 2.0 vs TensorFlow 1.x

    • Rinominato l'attributo target_ops in target_spec.supported_ops
    • Rimossi i seguenti attributi:
      • quantizzazione : inference_type , quantized_input_stats , post_training_quantize , default_ranges_stats , reorder_across_fake_quant , change_concat_input_ranges , get_input_arrays() . Invece, la quantizzazione consapevole della formazione è supportata tramite l'API tf.keras e la quantizzazione post formazione utilizza meno attributi.
      • visualizzazione : output_format , dump_graphviz_dir , dump_graphviz_video . Invece, l'approccio consigliato per visualizzare un modello TensorFlow Lite consiste nell'usare visualize.py .
      • grafici congelati : drop_control_dependency , poiché i grafici congelati non sono supportati in TensorFlow 2.x.
    • Rimosse altre API di conversione come tf.lite.toco_convert e tf.lite.TocoConverter
    • Rimosse altre API correlate come tf.lite.OpHint e tf.lite.constants (i tipi tf.lite.constants.* sono stati mappati sui tipi di dati tf.* TensorFlow, per ridurre la duplicazione)