Оптимизатор, реализующий алгоритм Адама.
Оптимизация Адама — это метод стохастического градиентного спуска, основанный на адаптивной оценке моментов первого и второго порядка.
По словам Кингмы и др., 2014, этот метод «вычислительно эффективен, требует мало памяти, инвариантен к диагональному масштабированию градиентов и хорошо подходит для задач, больших по объему данных/параметров».
@see Kingma et al., 2014, Адам: метод стохастической оптимизации .
Константы
| плавать | BETA_ONE_DEFAULT | |
| плавать | BETA_TWO_DEFAULT | |
| плавать | EPSILON_DEFAULT | |
| Нить | FIRST_MOMENT | |
| плавать | LEARNING_RATE_DEFAULT | |
| Нить | SECOND_MOMENT |
Унаследованные константы
Публичные конструкторы
Публичные методы
| статический <T расширяет TType > Op | createAdamMinimize (область видимости , потеря операнда <T>, float LearningRate, float betaOne, float betaTwo, float epsilon, параметры... опции) Создает операцию, которая минимизирует потери |
| Нить | getOptimizerName () Получите имя оптимизатора. |
| Нить | нанизывать () |
Унаследованные методы
Константы
общедоступный статический финальный float BETA_ONE_DEFAULT
общедоступный статический финальный float BETA_TWO_DEFAULT
общедоступный статический финальный float EPSILON_DEFAULT
общедоступная статическая финальная строка FIRST_MOMENT
общедоступный статический финальный плавающий элемент LEARNING_RATE_DEFAULT
общедоступная статическая финальная строка SECOND_MOMENT
Публичные конструкторы
публичный Адам ( график , float LearningRate)
Создает оптимизатор Адама
Параметры
| график | график TensorFlow |
|---|---|
| Скорость обучения | скорость обучения |
публичный Адам (график графика , float LearningRate, float betaOne, float betaTwo, float epsilon)
Создает оптимизатор Адама
Параметры
| график | график TensorFlow |
|---|---|
| Скорость обучения | скорость обучения |
| бетаУан | Скорость экспоненциального убывания для оценок первого момента. По умолчанию 0,9. |
| betaTwo | Скорость экспоненциального убывания для оценок второго момента. По умолчанию 0,999. |
| эпсилон | Небольшая константа для численной стабильности. Этот эпсилон является «эпсилон-шляпой» в статье Кингмы и Ба (в формуле перед разделом 2.1), а не эпсилоном в алгоритме 1 статьи. По умолчанию 1e-8. |
общедоступный Адам (график графика , имя строки, скорость обучения с плавающей запятой)
Создает оптимизатор Адама
Параметры
| график | график TensorFlow |
|---|---|
| имя | имя оптимизатора, по умолчанию «Адам». |
| Скорость обучения | скорость обучения |
общедоступный Адам (график графика , имя строки, float LearningRate, float betaOne, float betaTwo, float epsilon)
Создает оптимизатор Адама
Параметры
| график | график TensorFlow |
|---|---|
| имя | имя оптимизатора, по умолчанию «Адам». |
| Скорость обучения | скорость обучения |
| бетаУан | Скорость экспоненциального убывания для оценок первого момента. По умолчанию 0,9. |
| betaTwo | Скорость экспоненциального убывания для оценок второго момента. По умолчанию 0,999. |
| эпсилон | Небольшая константа для численной стабильности. Этот эпсилон является «эпсилон-шляпой» в статье Кингмы и Ба (в формуле перед разделом 2.1), а не эпсилоном в алгоритме 1 статьи. По умолчанию 1e-8. |
Публичные методы
public static Op createAdamMinimize (область видимости , потеря операнда <T>, float LearningRate, float betaOne, float betaTwo, float epsilon, параметры ... )
Создает операцию, которая минимизирует потери
Параметры
| объем | область действия TensorFlow |
|---|---|
| потеря | потери минимизировать |
| Скорость обучения | скорость обучения |
| бетаУан | Скорость экспоненциального убывания для оценок первого момента. |
| betaTwo | Скорость экспоненциального убывания для оценок второго момента. |
| эпсилон | Небольшая константа для численной стабильности. Этот эпсилон является «эпсилон-шляпой» в статье Кингмы и Ба (в формуле перед разделом 2.1), а не эпсилоном в алгоритме 1 статьи. |
| параметры | Дополнительные атрибуты оптимизатора |
Возврат
- Операция, минимизирующая потери
Броски
| IllegalArgumentException | если область действия не представляет собой график |
|---|
общедоступная строка getOptimizerName ()
Получите имя оптимизатора.
Возврат
- Имя оптимизатора.