ResourceSparseApplyProximalGradientDescent

clase final pública ResourceSparseApplyProximalGradientDescent

Actualización escasa '*var' como algoritmo FOBOS con tasa de aprendizaje fija.

Es decir, para las filas para las que tenemos grad, actualizamos var de la siguiente manera: prox_v = var - alpha grad var = sign(prox_v)/(1+alpha l2) max{|prox_v|-alpha l1,0}

Clases anidadas

clase ResourceSparseApplyProximalGradientDescent.Options Atributos opcionales para ResourceSparseApplyProximalGradientDescent

Constantes

Cadena OP_NOMBRE El nombre de esta operación, como lo conoce el motor central de TensorFlow.

Métodos públicos

estático <T extiende TType > ResourceSparseApplyProximalGradientDescent
crear (alcance alcance , operando <?> var, operando <T> alfa, operando <T> l1, operando <T> l2, operando <T> grad, operando <? extiende TNumber > índices, opciones... opciones)
Método de fábrica para crear una clase que envuelve una nueva operación ResourceSparseApplyProximalGradientDescent.
estático ResourceSparseApplyProximalGradientDescent.Options
useLocking (uso booleano Locking)

Métodos heredados

Constantes

Cadena final estática pública OP_NAME

El nombre de esta operación, como lo conoce el motor central de TensorFlow.

Valor constante: "ResourceSparseApplyProximalGradientDescent"

Métodos públicos

public static ResourceSparseApplyProximalGradientDescent create ( Alcance alcance, Operando <?> var, Operando <T> alfa, Operando <T> l1, Operando <T> l2, Operando <T> grad, Operando <? extiende TNumber > índices, Opciones... opciones)

Método de fábrica para crear una clase que envuelve una nueva operación ResourceSparseApplyProximalGradientDescent.

Parámetros
alcance alcance actual
var Debe ser de una Variable().
alfa Factor de escala. Debe ser un escalar.
l1 Regularización L1. Debe ser un escalar.
l2 Regularización L2. Debe ser un escalar.
graduado El gradiente.
índices Un vector de índices en la primera dimensión de var y accum.
opciones lleva valores de atributos opcionales
Devoluciones
  • una nueva instancia de ResourceSparseApplyProximalGradientDescent

público estático ResourceSparseApplyProximalGradientDescent.Options useLocking (uso booleanoLocking)

Parámetros
utilizarBloqueo Si es Verdadero, la resta estará protegida por un candado; de lo contrario, el comportamiento no está definido, pero puede presentar menos contención.
,
clase final pública ResourceSparseApplyProximalGradientDescent

Actualización escasa '*var' como algoritmo FOBOS con tasa de aprendizaje fija.

Es decir, para las filas para las que tenemos grad, actualizamos var de la siguiente manera: prox_v = var - alpha grad var = sign(prox_v)/(1+alpha l2) max{|prox_v|-alpha l1,0}

Clases anidadas

clase ResourceSparseApplyProximalGradientDescent.Options Atributos opcionales para ResourceSparseApplyProximalGradientDescent

Constantes

Cadena OP_NOMBRE El nombre de esta operación, como lo conoce el motor central de TensorFlow.

Métodos públicos

estático <T extiende TType > ResourceSparseApplyProximalGradientDescent
crear (alcance alcance , operando <?> var, operando <T> alfa, operando <T> l1, operando <T> l2, operando <T> grad, operando <? extiende TNumber > índices, opciones... opciones)
Método de fábrica para crear una clase que envuelve una nueva operación ResourceSparseApplyProximalGradientDescent.
estático ResourceSparseApplyProximalGradientDescent.Options
useLocking (uso booleano Locking)

Métodos heredados

Constantes

Cadena final estática pública OP_NAME

El nombre de esta operación, como lo conoce el motor central de TensorFlow.

Valor constante: "ResourceSparseApplyProximalGradientDescent"

Métodos públicos

public static ResourceSparseApplyProximalGradientDescent create ( Alcance alcance, Operando <?> var, Operando <T> alfa, Operando <T> l1, Operando <T> l2, Operando <T> grad, Operando <? extiende TNumber > índices, Opciones... opciones)

Método de fábrica para crear una clase que envuelve una nueva operación ResourceSparseApplyProximalGradientDescent.

Parámetros
alcance alcance actual
var Debe ser de una Variable().
alfa Factor de escala. Debe ser un escalar.
l1 Regularización L1. Debe ser un escalar.
l2 Regularización L2. Debe ser un escalar.
graduado El gradiente.
índices Un vector de índices en la primera dimensión de var y accum.
opciones lleva valores de atributos opcionales
Devoluciones
  • una nueva instancia de ResourceSparseApplyProximalGradientDescent

público estático ResourceSparseApplyProximalGradientDescent.Options useLocking (uso booleanoLocking)

Parámetros
utilizarBloqueo Si es Verdadero, la resta estará protegida por un candado; de lo contrario, el comportamiento no está definido, pero puede presentar menos contención.