QuantizeOp

classe pubblica QuantizeOp

Quantizza un TensorBuffer con zeroPoint e scale dati.

Nota: QuantizeOp non trasmette l'output a UINT8, ma esegue solo i calcoli di quantizzazione sopra l'input. Il tipo di dati del tensore di output è sempre FLOAT32 , tranne per il fatto che Op è effettivamente un'identità Op (in questo caso, il tensore di output è la stessa istanza dell'input). Per connettersi con il modello quantizzato, probabilmente è necessario un CastOp .

Se sia zeroPoint che scale sono 0, QuantizeOp verrà ignorato, il che equivale a impostare zeroPoint su 0 e scale su 1. Ciò può essere utile quando si passano i parametri di quantizzazione estratti direttamente dal flatbuffer del modello TFLite. Se il tensore non è quantizzato, sia zeroPoint che scale verranno letti come 0.

Costruttori pubblici

QuantizeOp (float zeroPoint, scala float)

Metodi ereditati

Costruttori pubblici

public QuantizeOp (float zeroPoint, scala float)

Parametri
punto zero
scala