Zaktualizuj odpowiednie wpisy w „*var” i „*accum” zgodnie ze schematem adagrad.
Oznacza to, że dla wierszy, dla których mamy grad, aktualizujemy var i accum w następujący sposób: $$accum += grad * grad$$$$var -= lr * grad * (1 / sqrt(accum))$$
Klasy zagnieżdżone
klasa | Opcje SparseApplyAdagradV2 | Opcjonalne atrybuty dla SparseApplyAdagradV2 |
Metody publiczne
Wyjście <T> | jako wyjście () Zwraca symboliczny uchwyt tensora. |
statyczny <T, U rozszerza numer> SparseApplyAdagradV2 <T> | |
Wyjście <T> | na zewnątrz () To samo co „var”. |
statyczne SparseApplyAdagradV2.Opcje | updateSlots (Boolean updateSlots) |
statyczne SparseApplyAdagradV2.Opcje | useLocking (boolowski useLocking) |
Metody dziedziczone
Metody publiczne
publiczne wyjście <T> asOutput ()
Zwraca symboliczny uchwyt tensora.
Dane wejściowe operacji TensorFlow są wynikami innej operacji TensorFlow. Ta metoda służy do uzyskania symbolicznego uchwytu reprezentującego obliczenia danych wejściowych.
public static SparseApplyAdagradV2 <T> utwórz (Zakres zakresu , Operand <T> var, Operand <T> accum, Operand <T> lr, Operand <T> epsilon, Operand <T> grad, Operand <U> indeksy, Opcje.. . opcje)
Metoda fabryczna służąca do tworzenia klasy opakowującej nową operację SparseApplyAdagradV2.
Parametry
zakres | aktualny zakres |
---|---|
odm | Powinno pochodzić ze zmiennej (). |
gromadzić | Powinno pochodzić ze zmiennej (). |
lr | Szybkość uczenia się. Musi być skalarem. |
epsilon | Stały czynnik. Musi być skalarem. |
absolwent | Gradient. |
indeksy | Wektor indeksów do pierwszego wymiaru var i accum. |
opcje | przenosi opcjonalne wartości atrybutów |
Powroty
- nowa instancja SparseApplyAdagradV2
public static SparseApplyAdagradV2.Options useLocking (boolean useLocking)
Parametry
użyjBlokowanie | Jeśli `True`, aktualizacja tensorów var i accum będzie zabezpieczona blokadą; w przeciwnym razie zachowanie jest niezdefiniowane, ale może wykazywać mniejszą rywalizację. |
---|