SparseApplyAdagradDa

публичный финальный класс SparseApplyAdagradDa

Обновите записи в '*var' и '*accum' в соответствии с проксимальной адаградной схемой.

Вложенные классы

сорт SparseApplyAdagradDa.Options Необязательные атрибуты для SparseApplyAdagradDa

Константы

Нить OP_NAME Название этой операции, известное основному движку TensorFlow.

Публичные методы

Выход <Т>
какВывод ()
Возвращает символический дескриптор тензора.
static <T расширяет TType > SparseApplyAdagradDa <T>
create ( Область видимости , Операнд <T> var, Операнд <T> градиентАккумулятор, Операнд <T> градиентSquaredAccumulator, Операнд <T> grad, Операнд <? расширяет индексы TNumber >, Операнд <T> lr, Операнд <T> l1, Операнд <T> l2, операнд <TInt64> globalStep, параметры... параметры)
Фабричный метод для создания класса, обертывающего новую операцию SparseApplyAdagradDa.
Выход <Т>
вне ()
То же, что «вар».
статический SparseApplyAdagradDa.Options
useLocking (логическое значение useLocking)

Унаследованные методы

Константы

общедоступная статическая финальная строка OP_NAME

Название этой операции, известное основному движку TensorFlow.

Постоянное значение: «SparseApplyAdagradDA».

Публичные методы

публичный вывод <T> asOutput ()

Возвращает символический дескриптор тензора.

Входные данные для операций TensorFlow являются выходными данными другой операции TensorFlow. Этот метод используется для получения символического дескриптора, который представляет собой вычисление входных данных.

public static SparseApplyAdagradDa <T> create ( Область видимости, Операнд <T> var, Операнд <T> градиентАккумулятор, Операнд <T> градиентSquaredAccumulator, Операнд <T> grad, Операнд <? расширяет индексы TNumber >, Операнд <T> lr, Операнд <T> l1, операнд <T> l2, операнд < TInt64 > globalStep, параметры... параметры)

Фабричный метод для создания класса, обертывающего новую операцию SparseApplyAdagradDa.

Параметры
объем текущий объем
вар Должно быть из переменной().
ГрадиентАккумулятор Должно быть из переменной().
ГрадиентКвадратныйАккумулятор Должно быть из переменной().
выпускник Градиент.
индексы Вектор индексов в первом измерении var и accum.
лр Скорость обучения. Должно быть скаляр.
л1 Регуляризация L1. Должно быть скаляр.
л2 Регуляризация L2. Должно быть скаляр.
глобальный шаг Номер шага обучения. Должно быть скаляр.
параметры содержит значения необязательных атрибутов
Возврат
  • новый экземпляр SparseApplyAdagradDa

публичный вывод <T> out ()

То же, что «вар».

public static SparseApplyAdagradDa.Options useLocking (логическое значение useLocking)

Параметры
использоватьLocking Если True, обновление тензоров var и accum будет защищено блокировкой; в противном случае поведение не определено, но может вызывать меньше конфликтов.