org.tensorflow.framework.optimizers

Zajęcia

AdaDelta Optymalizator implementujący algorytm Adadelta.
AdaGrad Optymalizator implementujący algorytm Adagrad.
AdaGradDA Optymalizator implementujący algorytm Adagrad Dual-Averaging.
Adama Optymalizator implementujący algorytm Adama.
Adamax Optymalizator implementujący algorytm Adamax.
Ftrl Optymalizator implementujący algorytm FTRL.
Zejście gradientowe Podstawowy optymalizator gradientu stochastycznego.
Pęd Zejście w gradiencie stochastycznym plus pęd, Nesterov lub tradycyjny.
Nadam Nadam Optimizer, który implementuje algorytm NAdam.
Optymalizator Klasa bazowa dla optymalizatorów gradientu.
Optimizer.GradAndVar <T rozszerza TType > Klasa przechowująca sparowany gradient i zmienną.
Optymalizator.Opcje Opcjonalne atrybuty Optimizer
RMSProp Optymalizator implementujący algorytm RMSProp.

Wyliczenia

Optymalizatory Moduł wyliczający używany do tworzenia nowego optymalizatora z parametrami domyślnymi.