Questa pagina è stata tradotta dall'API Cloud Translation.
Switch to English

tf.mixed_precision.experimental.FixedLossScale

Visualizza sorgente su GitHub

Perdita scala con un valore fisso.

Eredita da: LossScale

La scala di perdita non viene aggiornato per tutta la durata di istanze di questa classe. Una determinata istanza di questa classe restituisce sempre lo stesso numero quando viene chiamato.

loss_scale_value galleggiante un pitone. Il suo valore ideale varia a seconda dei modelli per l'esecuzione. La scelta di un troppo piccolo loss_scale potrebbe influire sulla qualità del modello; una troppo grande loss_scale potrebbe causare inf o nan. Non c'è una sola loss_scale diritto di applicare. Non v'è nulla di male la scelta di un gran numero relativamente più a lungo senza nan o inf si incontra in allenamento.

ValueError Se loss_scale_value è inferiore a 1.

metodi

from_config

Vedi la fonte

Crea il LossScale dalla sua configurazione.

get_config

Vedi la fonte

Restituisce la configurazione di questa scala perdita.

update

Vedi la fonte

Aggiorna il valore della scala di perdita.

La scala di perdita sarà potenzialmente aggiornato, in base al valore dei grads . Il tensore restituito dalla chiamata questa classe viene aggiornata solo quando viene valutata questa funzione.

In modo ansioso, verrà aggiornato direttamente la scala perdita, in modo che la chiamata __call__ tornerà la scala perdita recentemente aggiornato. In modalità grafico, questo restituisce un op che, quando ha valutato, aggiorna la scala perdita.

Questa funzione restituisce anche uno should_apply_gradients bool. Se False, pendenze non dovrebbero essere applicate alle variabili che passo, come i gradienti non finiti sono stati trovati, e la scala di perdita è stato aggiornato per ridurre la possibilità di trovare gradienti non finiti nella fase successiva. Alcune classi di scala perdita restituirà sempre vero, in quanto non si possono regolare in risposta ai gradienti non finiti.

Quando viene utilizzato un DistributionStrategy, tale funzione può essere chiamato solo in un contesto cross-replica.

args
grads Una struttura annidata di gradienti non scalati, ciascuno che è il gradiente della perdita rispetto ad un peso. I gradienti dovrebbero essere già stati divisi per lo scala perdita sia prima passato a questa funzione. gradienti 'none' sono accettate, e vengono ignorate.

ritorna
update_op In modalità ansioso, None. In modalità grafico, un op per modificare la scala perdita.
should_apply_gradients O un bool o un tensore booleano scalare. Se False, il chiamante deve passare l'applicazione grads alle variabili questo passo.

__call__

Vedi la fonte

Restituisce la scala di perdita di corrente come scalare float32 tensore.