SparseApplyAdagradV2

публичный финальный класс SparseApplyAdagradV2

Обновите соответствующие записи в «*var» и «*accum» в соответствии со схемой adagrad.

То есть для строк, для которых у нас есть grad, мы обновляем var и accum следующим образом:

$$accum += grad * grad$$
$$var -= lr * grad * (1 / sqrt(accum))$$

Вложенные классы

сорт SparseApplyAdagradV2.Параметры Дополнительные атрибуты для SparseApplyAdagradV2

Публичные методы

Выход <Т>
какВывод ()
Возвращает символический дескриптор тензора.
static <T, U расширяет число> SparseApplyAdagradV2 <T>
create ( Область видимости, Операнд <T> var, Операнд <T> accum, Операнд <T> lr, Операнд <T> эпсилон, Операнд <T> град, Операнд <U> индексы, Параметры... опции)
Фабричный метод для создания класса, обертывающего новую операцию SparseApplyAdagradV2.
Выход <Т>
вне ()
То же, что «вар».
статический SparseApplyAdagradV2.Options
updateSlots (логическое значение updateSlots)
статический SparseApplyAdagradV2.Options
useLocking (логическое значение useLocking)

Унаследованные методы

Публичные методы

публичный вывод <T> asOutput ()

Возвращает символический дескриптор тензора.

Входные данные для операций TensorFlow являются выходными данными другой операции TensorFlow. Этот метод используется для получения символического дескриптора, который представляет собой вычисление входных данных.

public static SparseApplyAdagradV2 <T> create ( Область действия, Операнд <T> var, Операнд <T> accum, Операнд <T> lr, Операнд <T> эпсилон, Операнд <T> град, Операнд <U> индексы, Параметры.. . параметры)

Фабричный метод для создания класса, обертывающего новую операцию SparseApplyAdagradV2.

Параметры
объем текущий объем
вар Должно быть из переменной().
накапливать Должно быть из переменной().
лр Скорость обучения. Должно быть скаляр.
эпсилон Постоянный фактор. Должно быть скаляр.
выпускник Градиент.
индексы Вектор индексов в первом измерении var и accum.
параметры содержит значения необязательных атрибутов
Возврат
  • новый экземпляр SparseApplyAdagradV2

публичный вывод <T> out ()

То же, что «вар».

общедоступный статический SparseApplyAdagradV2.Options updateSlots (логическое значение updateSlots)

public static SparseApplyAdagradV2.Options useLocking (логическое значение useLocking)

Параметры
использоватьLocking Если `True`, обновление тензоров var и accum будет защищено блокировкой; в противном случае поведение не определено, но может вызывать меньше конфликтов.