ResourceApplyProximalAdagrad

publiczna klasa końcowa ResourceApplyProximalAdagrad

Zaktualizuj „*var” i „*accum” zgodnie z FOBOS z szybkością uczenia się Adagrad.

accum += grad grad prox_v = var - lr grad (1 / sqrt(accum)) var = znak(prox_v)/(1+lr l2) max{|prox_v|-lr l1,0}

Klasy zagnieżdżone

klasa ResourceApplyProximalAdagrad.Options Opcjonalne atrybuty dla ResourceApplyProximalAdagrad

Stałe

Strunowy OP_NAME Nazwa tej operacji znana silnikowi rdzenia TensorFlow

Metody publiczne

statyczny <T rozszerza TType > ResourceApplyProximalAdagrad
utwórz (Zakres zasięgu , Operand <?> var, Argument <?> accum, Argument <T> lr, Argument <T> l1, Argument <T> l2, Argument <T> grad, Opcje... opcje)
Metoda fabryczna służąca do tworzenia klasy opakowującej nową operację ResourceApplyProximalAdagrad.
statyczne ResourceApplyProximalAdagrad.Options
useLocking (boolowski useLocking)

Metody dziedziczone

Stałe

publiczny statyczny końcowy ciąg znaków OP_NAME

Nazwa tej operacji znana silnikowi rdzenia TensorFlow

Wartość stała: „ResourceApplyProximalAdagrad”

Metody publiczne

public static ResourceApplyProximalAdagrad create ( Zakres zakresu, Operand <?> var, Operand <?> accum, Operand <T> lr, Operand <T> l1, Operand <T> l2, Operand <T> grad, Opcje... opcje)

Metoda fabryczna służąca do tworzenia klasy opakowującej nową operację ResourceApplyProximalAdagrad.

Parametry
zakres aktualny zakres
odm Powinno pochodzić ze zmiennej ().
gromadzić Powinno pochodzić ze zmiennej ().
lr Współczynnik skalowania. Musi być skalarem.
l1 Regularyzacja L1. Musi być skalarem.
l2 Regularyzacja L2. Musi być skalarem.
absolwent Gradient.
opcje przenosi opcjonalne wartości atrybutów
Zwroty
  • nowa instancja ResourceApplyProximalAdagrad

publiczny statyczny ResourceApplyProximalAdagrad.Options useLocking (boolean useLocking)

Parametry
użyjBlokowanie Jeśli ma wartość True, aktualizacja tensorów var i accum będzie zabezpieczona blokadą; w przeciwnym razie zachowanie jest niezdefiniowane, ale może wykazywać mniejszą rywalizację.