AdaGrad

klasa publiczna AdaGrad

Optymalizator implementujący algorytm Adagrad.

Adagrad to optymalizator charakteryzujący się szybkością uczenia się dla poszczególnych parametrów, która jest dostosowywana w zależności od częstotliwości aktualizacji parametru podczas uczenia. Im więcej aktualizacji otrzymuje parametr, tym mniejsze są aktualizacje.

Stałe

Dziedziczone stałe

org.tensorflow.framework.optimizers.Optimizer
Strunowy ZMIENNA_V2

Konstruktorzy publiczni

AdaGrad (wykres graficzny )
Tworzy optymalizator AdaGrad
AdaGrad (wykres graficzny , płynna naukaRate)
Tworzy optymalizator AdaGrad
AdaGrad (wykres graficzny , współczynnik uczenia się typu float, wartość początkowa typu float)
Tworzy optymalizator AdaGrad
AdaGrad (wykres graficzny , nazwa ciągu, współczynnik uczenia się typu float)
Tworzy optymalizator AdaGrad
AdaGrad (wykres wykresu , nazwa ciągu, współczynnik uczenia się typu float, wartość początkowa typu float)
Tworzy optymalizator AdaGrad

Metody publiczne

Strunowy
getOptimizerName ()
Uzyskaj nazwę optymalizatora.
Strunowy

Metody dziedziczone

org.tensorflow.framework.optimizers.Optimizer
Op
ApplyGradients (List< GradAndVar <? rozszerza TType >> gradsAndVars, nazwa ciągu)
Stosuje gradienty do zmiennych
<T rozszerza TType > Lista< GradAndVar <?>>
computeGradients (Utrata argumentu <?>)
Oblicza gradienty na podstawie argumentu straty.
ciąg statyczny
createName ( Wyjście <? rozszerza TType > zmienna, String NazwaSlotu)
Tworzy nazwę poprzez połączenie nazwy zmiennej i nazwy gniazda
abstrakcyjny ciąg
getOptimizerName ()
Uzyskaj nazwę optymalizatora.
<T rozszerza TType > Opcjonalne< Zmienna <T>>
getSlot ( Wyjście <T> var, String NazwaSlotu)
Pobiera gniazdo skojarzone z określoną zmienną i nazwą gniazda.
ostatnie operacje
getTF ()
Pobiera instancję Optymalizatora
Op
minimalizuj (utrata argumentu <?>)
Minimalizuje straty poprzez aktualizację zmiennych
Op
minimalizuj (Utrata argumentu <?>, nazwa ciągu)
Minimalizuje straty poprzez aktualizację zmiennych
wartość logiczna
równa się (Obiekt arg0)
ostatnia klasa<?>
pobierzKlasę ()
wew
hashCode ()
ostateczna pustka
powiadomić ()
ostateczna pustka
powiadom wszystkich ()
Strunowy
doString ()
ostateczna pustka
czekaj (długi arg0, int arg1)
ostateczna pustka
czekaj (długi arg0)
ostateczna pustka
Czekać ()

Stałe

publiczny statyczny końcowy akumulator AKUMULATORA

Wartość stała: „akumulator”

publiczny statyczny końcowy float INITIAL_ACCUMULATOR_DEFAULT

Wartość stała: 0,01

publiczny statyczny końcowy float LEARNING_RATE_DEFAULT

Wartość stała: 0,001

Konstruktorzy publiczni

publiczny AdaGrad (wykres graficzny )

Tworzy optymalizator AdaGrad

Parametry
wykres wykres TensorFlow

publiczny AdaGrad (wykres graficzny , float learningRate)

Tworzy optymalizator AdaGrad

Parametry
wykres wykres TensorFlow
Szybkość uczenia się tempo uczenia się

publiczny AdaGrad (wykres wykresu , float learningRate, float początkowaAccumulatorValue)

Tworzy optymalizator AdaGrad

Parametry
wykres wykres TensorFlow
Szybkość uczenia się tempo uczenia się
początkowa wartość akumulatora Wartość początkowa akumulatorów musi być nieujemna.
Rzuca
Wyjątek IllegalArgument jeśli wartość początkowaAccumulatorValue jest ujemna

publiczny AdaGrad (wykres wykresu , nazwa ciągu, współczynnik uczenia się typu float)

Tworzy optymalizator AdaGrad

Parametry
wykres wykres TensorFlow
nazwa nazwa tego Optymalizatora (domyślnie „Adagrad”)
Szybkość uczenia się tempo uczenia się

publiczny AdaGrad (wykres wykresu , nazwa ciągu, współczynnik uczenia się typu float, wartość początkowa typu float)

Tworzy optymalizator AdaGrad

Parametry
wykres wykres TensorFlow
nazwa nazwa tego Optymalizatora (domyślnie „Adagrad”)
Szybkość uczenia się tempo uczenia się
początkowa wartość akumulatora Wartość początkowa akumulatorów musi być nieujemna.
Rzuca
Wyjątek IllegalArgument jeśli wartość początkowaAccumulatorValue jest ujemna

Metody publiczne

public String getOptimizerName ()

Uzyskaj nazwę optymalizatora.

Zwroty
  • Nazwa optymalizatora.

publiczny ciąg do ciągu ()