ResourceSparseApplyProximalGradientDescent

публичный финальный класс ResourceSparseApplyProximalGradientDescent

Разреженное обновление '*var' как алгоритма FOBOS с фиксированной скоростью обучения.

То есть для строк, для которых у нас есть grad, мы обновляем var следующим образом: prox_v = var - Alpha grad var = Sign(prox_v)/(1+alpha l2) max{|prox_v|-alpha l1,0}

Вложенные классы

сорт ResourceSparseApplyProximalGradientDescent.Options Дополнительные атрибуты для ResourceSparseApplyProximalGradientDescent

Константы

Нить OP_NAME Название этой операции, известное основному движку TensorFlow.

Публичные методы

static <T расширяет TType > ResourceSparseApplyProximalGradientDescent
create ( Область действия, Операнд <?> var, Операнд <T> альфа, Операнд <T> l1, Операнд <T> l2, Операнд <T> град, Операнд <? расширяет индексы TNumber >, Параметры... параметры)
Фабричный метод для создания класса, обертывающего новую операцию ResourceSparseApplyProximalGradientDescent.
статический ResourceSparseApplyProximalGradientDescent.Options
useLocking (логическое значение useLocking)

Унаследованные методы

Константы

общедоступная статическая финальная строка OP_NAME

Название этой операции, известное основному движку TensorFlow.

Постоянное значение: «ResourceSparseApplyProximalGradientDescent»

Публичные методы

public static ResourceSparseApplyProximalGradientDescent create ( Область действия, Операнд <?> var, Операнд <T> альфа, Операнд <T> l1, Операнд <T> l2, Операнд <T> град, Операнд <? расширяет индексы TNumber >, Параметры... параметры)

Фабричный метод для создания класса, обертывающего новую операцию ResourceSparseApplyProximalGradientDescent.

Параметры
объем текущий объем
вар Должно быть из переменной().
альфа Коэффициент масштабирования. Должно быть скаляр.
л1 Регуляризация L1. Должно быть скаляр.
л2 Регуляризация L2. Должно быть скаляр.
выпускник Градиент.
индексы Вектор индексов в первом измерении var и accum.
параметры содержит значения необязательных атрибутов
Возврат
  • новый экземпляр ResourceSparseApplyProximalGradientDescent

public static ResourceSparseApplyProximalGradientDescent.Options useLocking (логическое значение useLocking)

Параметры
использоватьLocking Если True, вычитание будет защищено блокировкой; в противном случае поведение не определено, но может вызывать меньше конфликтов.
,
публичный финальный класс ResourceSparseApplyProximalGradientDescent

Разреженное обновление '*var' как алгоритма FOBOS с фиксированной скоростью обучения.

То есть для строк, для которых у нас есть grad, мы обновляем var следующим образом: prox_v = var - Alpha grad var = Sign(prox_v)/(1+alpha l2) max{|prox_v|-alpha l1,0}

Вложенные классы

сорт ResourceSparseApplyProximalGradientDescent.Options Дополнительные атрибуты для ResourceSparseApplyProximalGradientDescent

Константы

Нить OP_NAME Название этой операции, известное основному движку TensorFlow.

Публичные методы

static <T расширяет TType > ResourceSparseApplyProximalGradientDescent
create ( Область действия, Операнд <?> var, Операнд <T> альфа, Операнд <T> l1, Операнд <T> l2, Операнд <T> град, Операнд <? расширяет индексы TNumber >, Параметры... параметры)
Фабричный метод для создания класса, обертывающего новую операцию ResourceSparseApplyProximalGradientDescent.
статический ResourceSparseApplyProximalGradientDescent.Options
useLocking (логическое значение useLocking)

Унаследованные методы

Константы

общедоступная статическая финальная строка OP_NAME

Название этой операции, известное основному движку TensorFlow.

Постоянное значение: «ResourceSparseApplyProximalGradientDescent»

Публичные методы

public static ResourceSparseApplyProximalGradientDescent create ( Область действия, Операнд <?> var, Операнд <T> альфа, Операнд <T> l1, Операнд <T> l2, Операнд <T> град, Операнд <? расширяет индексы TNumber >, Параметры... параметры)

Фабричный метод для создания класса, обертывающего новую операцию ResourceSparseApplyProximalGradientDescent.

Параметры
объем текущий объем
вар Должно быть из переменной().
альфа Коэффициент масштабирования. Должно быть скаляр.
л1 Регуляризация L1. Должно быть скаляр.
л2 Регуляризация L2. Должно быть скаляр.
выпускник Градиент.
индексы Вектор индексов в первом измерении var и accum.
параметры содержит значения необязательных атрибутов
Возврат
  • новый экземпляр ResourceSparseApplyProximalGradientDescent

public static ResourceSparseApplyProximalGradientDescent.Options useLocking (логическое значение useLocking)

Параметры
использоватьLocking Если True, вычитание будет защищено блокировкой; в противном случае поведение не определено, но может вызывать меньше конфликтов.