ResourceApplyAdagradDa

classe finale pubblica ResourceApplyAdagradDa

Aggiorna '*var' secondo lo schema adagrad prossimale.

Classi nidificate

classe ResourceApplyAdagradDa.Options Attributi facoltativi per ResourceApplyAdagradDa

Costanti

Corda OP_NAME Il nome di questa operazione, come noto al motore principale di TensorFlow

Metodi pubblici

statico <T estende TType > ResourceApplyAdagradDa
create ( Scope scope, Operando <?> var, Operando <?> gradientAccumulator, Operando <?> gradientSquaredAccumulator, Operando <T> grad, Operando <T> lr, Operando <T> l1, Operando <T> l2, Operando < TInt64 > globalStep, Opzioni... opzioni)
Metodo factory per creare una classe che racchiude una nuova operazione ResourceApplyAdagradDa.
static ResourceApplyAdagradDa.Options
useLocking (useLocking booleano)

Metodi ereditati

Costanti

Stringa finale statica pubblica OP_NAME

Il nome di questa operazione, come noto al motore principale di TensorFlow

Valore costante: "ResourceApplyAdagradDA"

Metodi pubblici

public static ResourceApplyAdagradDa create ( Scope scope, Operando <?> var, Operando <?> gradientAccumulator, Operando <?> gradientSquaredAccumulator, Operando <T> grad, Operando <T> lr, Operando <T> l1, Operando <T> l2, Operando < TInt64 > globalStep, Opzioni... opzioni)

Metodo factory per creare una classe che racchiude una nuova operazione ResourceApplyAdagradDa.

Parametri
scopo ambito attuale
var Dovrebbe provenire da una variabile().
gradientAccumulatore Dovrebbe provenire da una variabile().
gradientSquaredAccumulatore Dovrebbe provenire da una variabile().
grado Il gradiente.
lr Fattore di scala. Deve essere uno scalare.
l1 Regolarizzazione L1. Deve essere uno scalare.
l2 Regolarizzazione L2. Deve essere uno scalare.
globalStep Numero della fase di allenamento. Deve essere uno scalare.
opzioni trasporta valori di attributi opzionali
ritorna
  • una nuova istanza di ResourceApplyAdagradDa

public static ResourceApplyAdagradDa.Options useLocking (useLocking booleano)

Parametri
utilizzareBlocco Se True, l'aggiornamento dei tensori var e accum sarà protetto da un lock; altrimenti il ​​comportamento non è definito, ma può mostrare meno contesa.