ResourceSparseApplyAdagradDa

publiczna klasa końcowa ResourceSparseApplyAdagradDa

Zaktualizuj wpisy w „*var” i „*accum” zgodnie ze schematem bliższego adagradu.

Klasy zagnieżdżone

klasa ResourceSparseApplyAdagradDa.Options Opcjonalne atrybuty dla ResourceSparseApplyAdagradDa

Stałe

Strunowy OP_NAME Nazwa tej operacji znana silnikowi rdzenia TensorFlow

Metody publiczne

statyczny <T rozszerza TType > ResourceSparseApplyAdagradDa
utwórz (Zakres zasięgu , Operand <?> var, Operand <?> gradientAccumulator, Operand <?> gradientSquaredAccumulator, Operand <T> grad, Operand <? Extends TNumber > indeksy, Operand <T> lr, Operand <T> l1, Argument <T> l2, Operand < TInt64 > globalStep, Opcje... opcje)
Metoda fabryczna służąca do tworzenia klasy opakowującej nową operację ResourceSparseApplyAdagradDa.
statyczny ResourceSparseApplyAdagradDa.Options
useLocking (boolowski useLocking)

Metody dziedziczone

Stałe

publiczny statyczny końcowy ciąg znaków OP_NAME

Nazwa tej operacji znana silnikowi rdzenia TensorFlow

Wartość stała: „ResourceSparseApplyAdagradDA”

Metody publiczne

public static ResourceSparseApplyAdagradDa create ( Zakres zasięgu , Operand <?> var, Operand <?> gradientAccumulator, Operand <?> gradientSquaredAccumulator, Operand <T> grad, Operand <? rozszerza TNumber > indeksy, Operand <T> lr, Operand <T> l1, Argument <T> l2, Argument < TInt64 > globalStep, Opcje... opcje)

Metoda fabryczna służąca do tworzenia klasy opakowującej nową operację ResourceSparseApplyAdagradDa.

Parametry
zakres aktualny zakres
odm Powinno pochodzić ze zmiennej ().
akumulator gradientu Powinno pochodzić ze zmiennej ().
akumulator gradientSquared Powinno pochodzić ze zmiennej ().
absolwent Gradient.
indeksy Wektor indeksów do pierwszego wymiaru var i accum.
lr Szybkość uczenia się. Musi być skalarem.
l1 Regularyzacja L1. Musi być skalarem.
l2 Regularyzacja L2. Musi być skalarem.
globalny krok Numer kroku szkolenia. Musi być skalarem.
opcje przenosi opcjonalne wartości atrybutów
Zwroty
  • nowa instancja ResourceSparseApplyAdagradDa

publiczny statyczny ResourceSparseApplyAdagradDa.Options useLocking (boolean useLocking)

Parametry
użyjBlokowanie Jeśli ma wartość True, aktualizacja tensorów var i accum będzie zabezpieczona blokadą; w przeciwnym razie zachowanie jest niezdefiniowane, ale może wykazywać mniejszą rywalizację.