ResourceApplyAdadelta

classe finale pubblica ResourceApplyAdadelta

Aggiorna '*var' secondo lo schema adadelta.

accum = rho() * accum + (1 - rho()) * grad.square(); aggiornamento = (update_accum + epsilon).sqrt() * (accum + epsilon()).rsqrt() * grad; update_accum = rho() * update_accum + (1 - rho()) * update.square(); var -= aggiorna;

Classi nidificate

classe ResourceApplyAdadelta.Options Attributi facoltativi per ResourceApplyAdadelta

Costanti

Corda OP_NAME Il nome di questa operazione, come noto al motore principale di TensorFlow

Metodi pubblici

statico <T estende TType > ResourceApplyAdadelta
create ( Scope scope, Operando <?> var, Operando <?> accum, Operando <?> accumUpdate, Operando <T> lr, Operando <T> rho, Operando <T> epsilon, Operando <T> grad, Opzioni.. . opzioni)
Metodo factory per creare una classe che racchiude una nuova operazione ResourceApplyAdadelta.
static ResourceApplyAdadelta.Options
useLocking (useLocking booleano)

Metodi ereditati

Costanti

Stringa finale statica pubblica OP_NAME

Il nome di questa operazione, come noto al motore principale di TensorFlow

Valore costante: "ResourceApplyAdadelta"

Metodi pubblici

public static ResourceApplyAdadelta create ( Scope scope, Operando <?> var, Operando <?> accum, Operando <?> accumUpdate, Operando <T> lr, Operando <T> rho, Operando <T> epsilon, Operando <T> grad, Opzioni... opzioni)

Metodo factory per creare una classe che racchiude una nuova operazione ResourceApplyAdadelta.

Parametri
scopo ambito attuale
var Dovrebbe provenire da una variabile().
accu Dovrebbe provenire da una variabile().
accumUpdate Dovrebbe provenire da una variabile().
lr Fattore di scala. Deve essere uno scalare.
Rho Fattore di decadimento. Deve essere uno scalare.
epsilon Fattore costante. Deve essere uno scalare.
grado Il gradiente.
opzioni trasporta valori di attributi opzionali
ritorna
  • una nuova istanza di ResourceApplyAdadelta

public static ResourceApplyAdadelta.Options useLocking (useLocking booleano)

Parametri
utilizzareBlocco Se True, l'aggiornamento dei tensori var, accum e update_accum sarà protetto da un lock; altrimenti il ​​comportamento non è definito, ma può mostrare meno contesa.