SparseApplyAdagradV2

classe finale pubblica SparseApplyAdagradV2

Aggiorna le voci rilevanti in '*var' e '*accum' secondo lo schema adagrad.

Questo è per le righe per le quali abbiamo grad, aggiorniamo var e accum come segue:

$$accum += grad * grad$$
$$var -= lr * grad * (1 / sqrt(accum))$$

Classi nidificate

classe SparseApplyAdagradV2.Options Attributi facoltativi per SparseApplyAdagradV2

Metodi pubblici

Uscita <T>
comeuscita ()
Restituisce la maniglia simbolica di un tensore.
statico <T, U estende Numero> SparseApplyAdagradV2 <T>
create ( Scope scope, Operando <T> var, Operando <T> accum, Operando <T> lr, Operando <T> epsilon, Operando <T> grad, Operando <U> indici, Opzioni... opzioni)
Metodo factory per creare una classe che racchiude una nuova operazione SparseApplyAdagradV2.
Uscita <T>
fuori ()
Uguale a "var".
statico SparseApplyAdagradV2.Options
updateSlots (aggiornamentoSlot booleani)
statico SparseApplyAdagradV2.Options
useLocking (useLocking booleano)

Metodi ereditati

Metodi pubblici

Uscita pubblica <T> asOutput ()

Restituisce la maniglia simbolica di un tensore.

Gli input per le operazioni TensorFlow sono output di un'altra operazione TensorFlow. Questo metodo viene utilizzato per ottenere un handle simbolico che rappresenta il calcolo dell'input.

public static SparseApplyAdagradV2 <T> create ( Scope scope, Operando <T> var, Operando <T> accum, Operando <T> lr, Operando <T> epsilon, Operando <T> grad, Operando <U> indici, Opzioni.. . opzioni)

Metodo factory per creare una classe che racchiude una nuova operazione SparseApplyAdagradV2.

Parametri
scopo ambito attuale
var Dovrebbe provenire da una variabile().
accu Dovrebbe provenire da una variabile().
lr Tasso di apprendimento. Deve essere uno scalare.
epsilon Fattore costante. Deve essere uno scalare.
grado Il gradiente.
indici Un vettore di indici nella prima dimensione di var e accum.
opzioni trasporta valori di attributi opzionali
ritorna
  • una nuova istanza di SparseApplyAdagradV2

Uscita pubblica <T> out ()

Uguale a "var".

pubblico statico SparseApplyAdagradV2.Options updateSlots (aggiornamento booleano)

pubblico statico SparseApplyAdagradV2.Options useLocking (useLocking booleano)

Parametri
utilizzareBlocco Se "Vero", l'aggiornamento dei tensori var e accum sarà protetto da un blocco; altrimenti il ​​comportamento non è definito, ma può mostrare meno contesa.