ResourceSparseApplyProximalGradientDescent

publiczna klasa końcowa ResourceSparseApplyProximalGradientDescent

Rzadka aktualizacja „*var” jako algorytmu FOBOS ze stałą szybkością uczenia się.

To znaczy dla wierszy, dla których mamy grad, aktualizujemy var w następujący sposób: prox_v = var - alfa grad var = znak(prox_v)/(1+alfa l2) max{|prox_v|-alpha l1,0}

Klasy zagnieżdżone

klasa ResourceSparseApplyProximalGradientDescent.Opcje Opcjonalne atrybuty ResourceSparseApplyProximalGradientDescent

Stałe

Strunowy OP_NAME Nazwa tej operacji znana silnikowi rdzenia TensorFlow

Metody publiczne

static <T rozszerza TType > ResourceSparseApplyProximalGradientDescent
utwórz (Zakres zasięgu , Operand <?> var, Operand <T> alfa, Argument <T> l1, Argument <T> l2, Argument <T> grad, Argument < ? rozszerza TNumber > indeksy, Opcje... opcje)
Metoda fabryczna służąca do tworzenia klasy opakowującej nową operację ResourceSparseApplyProximalGradientDescent.
statyczny ResourceSparseApplyProximalGradientDescent.Options
useLocking (boolowski useLocking)

Metody dziedziczone

Stałe

publiczny statyczny końcowy ciąg znaków OP_NAME

Nazwa tej operacji znana silnikowi rdzenia TensorFlow

Wartość stała: „ResourceSparseApplyProximalGradientDescent”

Metody publiczne

public static ResourceSparseApplyProximalGradientDescent create ( Zakres zakresu, Operand <?> var, Operand <T> alpha, Operand <T> l1, Operand <T> l2, Operand <T> grad, Operand <? rozszerza TNumber > indeksy, Opcje... opcje)

Metoda fabryczna służąca do tworzenia klasy opakowującej nową operację ResourceSparseApplyProximalGradientDescent.

Parametry
zakres aktualny zakres
odm Powinno pochodzić ze zmiennej ().
alfa Współczynnik skalowania. Musi być skalarem.
l1 Regularyzacja L1. Musi być skalarem.
l2 Regularyzacja L2. Musi być skalarem.
absolwent Gradient.
indeksy Wektor indeksów do pierwszego wymiaru var i accum.
opcje przenosi opcjonalne wartości atrybutów
Zwroty
  • nowe wystąpienie ResourceSparseApplyProximalGradientDescent

publiczny statyczny ResourceSparseApplyProximalGradientDescent.Options useLocking (boolean useLocking)

Parametry
użyjBlokowanie Jeśli True, odejmowanie będzie chronione blokadą; w przeciwnym razie zachowanie jest niezdefiniowane, ale może wykazywać mniejszą rywalizację.
,
publiczna klasa końcowa ResourceSparseApplyProximalGradientDescent

Rzadka aktualizacja „*var” jako algorytmu FOBOS ze stałą szybkością uczenia się.

To znaczy dla wierszy, dla których mamy grad, aktualizujemy var w następujący sposób: prox_v = var - alfa grad var = znak(prox_v)/(1+alfa l2) max{|prox_v|-alpha l1,0}

Klasy zagnieżdżone

klasa ResourceSparseApplyProximalGradientDescent.Opcje Opcjonalne atrybuty ResourceSparseApplyProximalGradientDescent

Stałe

Strunowy OP_NAME Nazwa tej operacji znana silnikowi rdzenia TensorFlow

Metody publiczne

static <T rozszerza TType > ResourceSparseApplyProximalGradientDescent
utwórz (Zakres zasięgu , Operand <?> var, Operand <T> alfa, Argument <T> l1, Argument <T> l2, Argument <T> grad, Argument < ? rozszerza TNumber > indeksy, Opcje... opcje)
Metoda fabryczna służąca do tworzenia klasy opakowującej nową operację ResourceSparseApplyProximalGradientDescent.
statyczny ResourceSparseApplyProximalGradientDescent.Options
useLocking (boolowski useLocking)

Metody dziedziczone

Stałe

publiczny statyczny końcowy ciąg znaków OP_NAME

Nazwa tej operacji znana silnikowi rdzenia TensorFlow

Wartość stała: „ResourceSparseApplyProximalGradientDescent”

Metody publiczne

public static ResourceSparseApplyProximalGradientDescent create ( Zakres zakresu, Operand <?> var, Operand <T> alpha, Operand <T> l1, Operand <T> l2, Operand <T> grad, Operand <? rozszerza TNumber > indeksy, Opcje... opcje)

Metoda fabryczna służąca do tworzenia klasy opakowującej nową operację ResourceSparseApplyProximalGradientDescent.

Parametry
zakres aktualny zakres
odm Powinno pochodzić ze zmiennej ().
alfa Współczynnik skalowania. Musi być skalarem.
l1 Regularyzacja L1. Musi być skalarem.
l2 Regularyzacja L2. Musi być skalarem.
absolwent Gradient.
indeksy Wektor indeksów do pierwszego wymiaru var i accum.
opcje przenosi opcjonalne wartości atrybutów
Zwroty
  • nowe wystąpienie ResourceSparseApplyProximalGradientDescent

publiczny statyczny ResourceSparseApplyProximalGradientDescent.Options useLocking (boolean useLocking)

Parametry
użyjBlokowanie Jeśli True, odejmowanie będzie chronione blokadą; w przeciwnym razie zachowanie jest niezdefiniowane, ale może wykazywać mniejszą rywalizację.