ResourceSparseApplyProximalAdagrad

classe finale pubblica ResourceSparseApplyProximalAdagrad

Voci di aggiornamento sparse in '*var' e '*accum' secondo l'algoritmo FOBOS.

Questo è per le righe per le quali abbiamo grad, aggiorniamo var e accum come segue: accum += grad grad prox_v = var prox_v -= lr grad (1 / sqrt(accum)) var = sign(prox_v)/(1+lr l2 ) max{|prox_v|-lr l1,0}

Classi nidificate

classe ResourceSparseApplyProximalAdagrad.Options Attributi facoltativi per ResourceSparseApplyProximalAdagrad

Costanti

Corda OP_NAME Il nome di questa operazione, come noto al motore principale di TensorFlow

Metodi pubblici

static <T estende TType > ResourceSparseApplyProximalAdagrad
create ( Scope scope, Operando <?> var, Operando <?> accum, Operando <T> lr, Operando <T> l1, Operando <T> l2, Operando <T> grad, Operando <? extends TNumber > indici, Opzioni ... opzioni)
Metodo factory per creare una classe che racchiude una nuova operazione ResourceSparseApplyProximalAdagrad.
static ResourceSparseApplyProximalAdagrad.Options
useLocking (useLocking booleano)

Metodi ereditati

Costanti

Stringa finale statica pubblica OP_NAME

Il nome di questa operazione, come noto al motore principale di TensorFlow

Valore costante: "ResourceSparseApplyProximalAdagrad"

Metodi pubblici

public static ResourceSparseApplyProximalAdagrad create ( Ambito di applicazione , Operando <?> var, Operando <?> accum, Operando <T> lr, Operando <T> l1, Operando <T> l2, Operando <T> grad, Operando <? extends TNumber > indici, Opzioni... opzioni)

Metodo factory per creare una classe che racchiude una nuova operazione ResourceSparseApplyProximalAdagrad.

Parametri
scopo ambito attuale
var Dovrebbe provenire da una variabile().
accu Dovrebbe provenire da una variabile().
lr Tasso di apprendimento. Deve essere uno scalare.
l1 Regolarizzazione L1. Deve essere uno scalare.
l2 Regolarizzazione L2. Deve essere uno scalare.
grado Il gradiente.
indici Un vettore di indici nella prima dimensione di var e accum.
opzioni trasporta valori di attributi opzionali
ritorna
  • una nuova istanza di ResourceSparseApplyProximalAdagrad

public static ResourceSparseApplyProximalAdagrad.Options useLocking (useLocking booleano)

Parametri
utilizzareBlocco Se True, l'aggiornamento dei tensori var e accum sarà protetto da un lock; altrimenti il ​​comportamento non è definito, ma può mostrare meno contesa.