SparseApplyAdagradV2

publiczna klasa końcowa SparseApplyAdagradV2

Zaktualizuj odpowiednie wpisy w „*var” i „*accum” zgodnie ze schematem adagrad.

Oznacza to, że dla wierszy, dla których mamy grad, aktualizujemy var i accum w następujący sposób:

$$accum += grad * grad$$
$$var -= lr * grad * (1 / sqrt(accum))$$

Klasy zagnieżdżone

klasa Opcje SparseApplyAdagradV2 Opcjonalne atrybuty dla SparseApplyAdagradV2

Metody publiczne

Wyjście <T>
jako wyjście ()
Zwraca symboliczny uchwyt tensora.
statyczny <T, U rozszerza numer> SparseApplyAdagradV2 <T>
utwórz ( Zakres zasięgu , Operand <T> var, Operand <T> accum, Operand <T> lr, Operand <T> epsilon, Operand <T> grad, Operand <U> indeksy, Opcje... opcje)
Metoda fabryczna służąca do tworzenia klasy opakowującej nową operację SparseApplyAdagradV2.
Wyjście <T>
na zewnątrz ()
To samo co „var”.
statyczne SparseApplyAdagradV2.Opcje
updateSlots (Boolean updateSlots)
statyczne SparseApplyAdagradV2.Opcje
useLocking (boolowski useLocking)

Metody dziedziczone

Metody publiczne

publiczne wyjście <T> asOutput ()

Zwraca symboliczny uchwyt tensora.

Dane wejściowe operacji TensorFlow są wynikami innej operacji TensorFlow. Ta metoda służy do uzyskania symbolicznego uchwytu reprezentującego obliczenia danych wejściowych.

public static SparseApplyAdagradV2 <T> utwórz ( Zakres zakresu, Operand <T> var, Operand <T> accum, Operand <T> lr, Operand <T> epsilon, Operand <T> grad, Operand <U> indeksy, Opcje.. .opcje )

Metoda fabryczna służąca do tworzenia klasy opakowującej nową operację SparseApplyAdagradV2.

Parametry
zakres aktualny zakres
odm Powinno pochodzić ze zmiennej ().
gromadzić Powinno pochodzić ze zmiennej ().
lr Szybkość uczenia się. Musi być skalarem.
epsilon Stały czynnik. Musi być skalarem.
absolwent Gradient.
indeksy Wektor indeksów do pierwszego wymiaru var i accum.
opcje przenosi opcjonalne wartości atrybutów
Zwroty
  • nowa instancja SparseApplyAdagradV2

publiczne wyjście <T> out ()

To samo co „var”.

public static SparseApplyAdagradV2.Options updateSlots (Boolean updateSlots)

public static SparseApplyAdagradV2.Options useLocking (boolean useLocking)

Parametry
użyjBlokowanie Jeśli `True`, aktualizacja tensorów var i accum będzie zabezpieczona blokadą; w przeciwnym razie zachowanie jest niezdefiniowane, ale może wykazywać mniejszą rywalizację.