ResourceApplyAdagrad

публичный финальный класс ResourceApplyAdagrad

Обновите *var по схеме adagrad.

аккум += град * град вар -= lr * град * (1 / (sqrt(аккум) + эпсилон))

Вложенные классы

сорт ResourceApplyAdagrad.Options Дополнительные атрибуты для ResourceApplyAdagrad

Константы

Нить OP_NAME Название этой операции, известное основному движку TensorFlow.

Публичные методы

статический <T расширяет TType > ResourceApplyAdagrad
create ( Область видимости , Операнд <?> var, Операнд <?> accum, Операнд <T> lr, Операнд <T> эпсилон, Операнд <T> grad, Опции... опции)
Фабричный метод для создания класса, обертывающего новую операцию ResourceApplyAdagrad.
статический ResourceApplyAdagrad.Options
updateSlots (логическое значение updateSlots)
статический ResourceApplyAdagrad.Options
useLocking (логическое значение useLocking)

Унаследованные методы

Константы

общедоступная статическая финальная строка OP_NAME

Название этой операции, известное основному движку TensorFlow.

Постоянное значение: «ResourceApplyAdagradV2».

Публичные методы

public static ResourceApplyAdagrad create ( Область действия, Операнд <?> var, Операнд <?> accum, Операнд <T> lr, Операнд <T> эпсилон, Операнд <T> grad, Параметры... параметры)

Фабричный метод для создания класса, обертывающего новую операцию ResourceApplyAdagrad.

Параметры
объем текущий объем
вар Должно быть из переменной().
накапливать Должно быть из переменной().
лр Коэффициент масштабирования. Должно быть скаляр.
эпсилон Постоянный фактор. Должно быть скаляр.
выпускник Градиент.
параметры содержит значения необязательных атрибутов
Возврат
  • новый экземпляр ResourceApplyAdagrad

общедоступный статический ResourceApplyAdagrad.Options updateSlots (логическое значение updateSlots)

общедоступный статический ResourceApplyAdagrad.Options useLocking (логическое значение useLocking)

Параметры
использоватьLocking Если `True`, обновление тензоров var и accum будет защищено блокировкой; в противном случае поведение не определено, но может вызывать меньше конфликтов.