ResourceApplyAdagrad

classe finale pubblica ResourceApplyAdagrad

Aggiorna '*var' secondo lo schema adagrad.

accum += grad * grad var -= lr * grad * (1 / (sqrt(accum) + epsilon))

Classi nidificate

classe ResourceApplyAdagrad.Options Attributi facoltativi per ResourceApplyAdagrad

Costanti

Corda OP_NAME Il nome di questa operazione, come noto al motore principale di TensorFlow

Metodi pubblici

statico <T estende TType > ResourceApplyAdagrad
create ( Scope scope, Operando <?> var, Operando <?> accum, Operando <T> lr, Operando <T> epsilon, Operando <T> grad, Opzioni... opzioni)
Metodo factory per creare una classe che racchiude una nuova operazione ResourceApplyAdagrad.
static ResourceApplyAdagrad.Options
updateSlots (aggiornamentoSlot booleani)
static ResourceApplyAdagrad.Options
useLocking (useLocking booleano)

Metodi ereditati

Costanti

Stringa finale statica pubblica OP_NAME

Il nome di questa operazione, come noto al motore principale di TensorFlow

Valore costante: "ResourceApplyAdagradV2"

Metodi pubblici

public static ResourceApplyAdagrad create ( Scope scope, Operando <?> var, Operando <?> accum, Operando <T> lr, Operando <T> epsilon, Operando <T> grad, Opzioni... opzioni)

Metodo factory per creare una classe che racchiude una nuova operazione ResourceApplyAdagrad.

Parametri
scopo ambito attuale
var Dovrebbe provenire da una variabile().
accu Dovrebbe provenire da una variabile().
lr Fattore di scala. Deve essere uno scalare.
epsilon Fattore costante. Deve essere uno scalare.
grado Il gradiente.
opzioni trasporta valori di attributi opzionali
ritorna
  • una nuova istanza di ResourceApplyAdagrad

public static ResourceApplyAdagrad.Options updateSlots (boolean updateSlots)

public static ResourceApplyAdagrad.Options useLocking (useLocking booleano)

Parametri
utilizzareBlocco Se "Vero", l'aggiornamento dei tensori var e accum sarà protetto da un blocco; altrimenti il ​​comportamento non è definito, ma può mostrare meno contesa.