ApplyAdadelta

publiczna klasa końcowa ApplyAdadelta

Zaktualizuj „*var” zgodnie ze schematem adadelta.

accum = rho() * accum + (1 - rho()) * grad.square(); aktualizacja = (update_accum + epsilon).sqrt() * (accum + epsilon()).rsqrt() * grad; update_accum = rho() * update_accum + (1 - rho()) * update.square(); var –= aktualizacja;

Klasy zagnieżdżone

klasa ZastosujAdadelta.Opcje Opcjonalne atrybuty ApplyAdadelta

Stałe

Strunowy OP_NAME Nazwa tej operacji znana silnikowi rdzenia TensorFlow

Metody publiczne

Wyjście <T>
jako wyjście ()
Zwraca symboliczny uchwyt tensora.
statyczny <T rozszerza TType > ApplyAdadelta <T>
utwórz ( Zakres zasięgu , Operand <T> var, Operand <T> accum, Operand <T> accumUpdate, Operand <T> lr, Operand <T> rho, Operand <T> epsilon, Operand <T> grad, Opcje.. .opcje )
Metoda fabryczna służąca do tworzenia klasy opakowującej nową operację ApplyAdadelta.
Wyjście <T>
na zewnątrz ()
To samo co „var”.
statyczny ApplyAdadelta.Options
useLocking (boolowski useLocking)

Metody dziedziczone

Stałe

publiczny statyczny końcowy ciąg znaków OP_NAME

Nazwa tej operacji znana silnikowi rdzenia TensorFlow

Wartość stała: „ZastosujAdadelta”

Metody publiczne

publiczne wyjście <T> asOutput ()

Zwraca symboliczny uchwyt tensora.

Dane wejściowe operacji TensorFlow są wynikami innej operacji TensorFlow. Ta metoda służy do uzyskania symbolicznego uchwytu reprezentującego obliczenia danych wejściowych.

public static ApplyAdadelta <T> create ( Zakres zasięgu , Operand <T> var, Operand <T> accum, Operand <T> accumUpdate, Operand <T> lr, Operand <T> rho, Operand <T> epsilon, Operand <T > grad, Opcje... opcje)

Metoda fabryczna służąca do tworzenia klasy opakowującej nową operację ApplyAdadelta.

Parametry
zakres aktualny zakres
odm Powinno pochodzić ze zmiennej ().
gromadzić Powinno pochodzić ze zmiennej ().
accumUpdate Powinno pochodzić ze zmiennej ().
lr Współczynnik skalowania. Musi być skalarem.
rho Czynnik rozpadu. Musi być skalarem.
epsilon Stały czynnik. Musi być skalarem.
absolwent Gradient.
opcje przenosi opcjonalne wartości atrybutów
Zwroty
  • nowa instancja ApplyAdadelta

publiczne wyjście <T> out ()

To samo co „var”.

public static ApplyAdadelta.Options useLocking (Boolean useLocking)

Parametry
użyjBlokowanie Jeśli True, aktualizacja tensorów var, accum i update_accum będzie chroniona blokadą; w przeciwnym razie zachowanie jest niezdefiniowane, ale może wykazywać mniejszą rywalizację.