SparseApplyProximalAdagrad

publiczna klasa końcowa SparseApplyProximalAdagrad

Rzadkie wpisy aktualizacji w '*var' i '*accum' zgodnie z algorytmem FOBOS.

Oznacza to, że dla wierszy, dla których mamy grad, aktualizujemy var i accum w następujący sposób: $$accum += grad grad$$$$prox_v = var$$$$prox_v -= lr grad (1 / sqrt(accum))$$$$var = sign(prox_v)/(1+lrl2) max{|prox_v|-lrl1,0}$$

Klasy zagnieżdżone

klasa SparseApplyProximalAdagrad.Opcje Opcjonalne atrybuty dla SparseApplyProximalAdagrad

Stałe

Strunowy OP_NAME Nazwa tej operacji znana silnikowi rdzenia TensorFlow

Metody publiczne

Wyjście <T>
jako wyjście ()
Zwraca symboliczny uchwyt tensora.
statyczny <T rozszerza TType > SparseApplyProximalAdagrad <T>
utwórz ( Zakres zasięgu , Operand <T> var, Argument <T> accum, Argument <T> lr, Argument <T> l1, Argument <T> l2, Argument <T> grad, Argument <? rozszerza TNumber > indeksy, Opcje ... opcje)
Metoda fabryczna służąca do tworzenia klasy opakowującej nową operację SparseApplyProximalAdagrad.
Wyjście <T>
na zewnątrz ()
To samo co „var”.
statyczne SparseApplyProximalAdagrad.Options
useLocking (boolowski useLocking)

Metody dziedziczone

Stałe

publiczny statyczny końcowy ciąg znaków OP_NAME

Nazwa tej operacji znana silnikowi rdzenia TensorFlow

Wartość stała: „SparseApplyProximalAdagrad”

Metody publiczne

publiczne wyjście <T> asOutput ()

Zwraca symboliczny uchwyt tensora.

Dane wejściowe operacji TensorFlow są wynikami innej operacji TensorFlow. Ta metoda służy do uzyskania symbolicznego uchwytu reprezentującego obliczenia danych wejściowych.

public static SparseApplyProximalAdagrad <T> create ( Zakres zakresu, Operand <T> var, Operand <T> accum, Operand <T> lr, Operand <T> l1, Operand <T> l2, Operand <T> grad, Argument <? rozszerza TNumber > indeksy, Opcje... opcje)

Metoda fabryczna służąca do tworzenia klasy opakowującej nową operację SparseApplyProximalAdagrad.

Parametry
zakres aktualny zakres
odm Powinno pochodzić ze zmiennej ().
gromadzić Powinno pochodzić ze zmiennej ().
lr Szybkość uczenia się. Musi być skalarem.
l1 Regularyzacja L1. Musi być skalarem.
l2 Regularyzacja L2. Musi być skalarem.
absolwent Gradient.
indeksy Wektor indeksów do pierwszego wymiaru var i accum.
opcje przenosi opcjonalne wartości atrybutów
Zwroty
  • nowa instancja SparseApplyProximalAdagrad

publiczne wyjście <T> out ()

To samo co „var”.

public static SparseApplyProximalAdagrad.Options useLocking (boolean useLocking)

Parametry
użyjBlokowanie Jeśli ma wartość True, aktualizacja tensorów var i accum będzie zabezpieczona blokadą; w przeciwnym razie zachowanie jest niezdefiniowane, ale może wykazywać mniejszą rywalizację.