ApplyProximalGradientDescent

publiczna klasa końcowa ApplyProximalGradientDescent

Zaktualizuj „*var” jako algorytm FOBOS ze stałą szybkością uczenia się.

prox_v = var - alfa delta var = znak(prox_v)/(1+alfa l2) max{|prox_v|-alfa l1,0}

Klasy zagnieżdżone

klasa ZastosujProximalGradientDescent.Opcje Opcjonalne atrybuty ApplyProximalGradientDescent

Stałe

Strunowy OP_NAME Nazwa tej operacji znana silnikowi rdzenia TensorFlow

Metody publiczne

Wyjście <T>
jako wyjście ()
Zwraca symboliczny uchwyt tensora.
statyczny <T rozszerza TType > ApplyProximalGradientDescent <T>
utwórz (Zakres zasięgu , Operand <T> var, Argument <T> alfa, Argument <T> l1, Argument <T> l2, Argument <T> delta, Opcje... opcje)
Metoda fabryczna służąca do tworzenia klasy opakowującej nową operację ApplyProximalGradientDescent.
Wyjście <T>
na zewnątrz ()
To samo co „var”.
statyczny ApplyProximalGradientDescent.Options
useLocking (boolowski useLocking)

Metody dziedziczone

Stałe

publiczny statyczny końcowy ciąg znaków OP_NAME

Nazwa tej operacji znana silnikowi rdzenia TensorFlow

Wartość stała: „ZastosujProximalGradientDescent”

Metody publiczne

publiczne wyjście <T> asOutput ()

Zwraca symboliczny uchwyt tensora.

Dane wejściowe operacji TensorFlow są wynikami innej operacji TensorFlow. Ta metoda służy do uzyskania symbolicznego uchwytu reprezentującego obliczenia danych wejściowych.

public static ApplyProximalGradientDescent <T> create ( zakres zakresu , argument <T> var, argument <T> alfa, argument <T> l1, argument <T> l2, argument <T> delta, opcje... opcje)

Metoda fabryczna służąca do tworzenia klasy opakowującej nową operację ApplyProximalGradientDescent.

Parametry
zakres aktualny zakres
odm Powinno pochodzić ze zmiennej ().
alfa Współczynnik skalowania. Musi być skalarem.
l1 Regularyzacja L1. Musi być skalarem.
l2 Regularyzacja L2. Musi być skalarem.
delta Zmiana.
opcje przenosi opcjonalne wartości atrybutów
Zwroty
  • nową instancję ApplyProximalGradientDescent

publiczne wyjście <T> out ()

To samo co „var”.

public static ApplyProximalGradientDescent.Options useLocking (boolean useLocking)

Parametry
użyjBlokowanie Jeśli True, odejmowanie będzie chronione blokadą; w przeciwnym razie zachowanie jest niezdefiniowane, ale może wykazywać mniejszą rywalizację.