ResourceSparseApplyProximalAdagrad

clase final pública ResourceSparseApplyProximalAdagrad

Entradas de actualización escasas en '*var' y '*accum' según el algoritmo FOBOS.

Es decir, para las filas para las que tenemos grad, actualizamos var y accum de la siguiente manera: accum += grad grad prox_v = var prox_v -= lr grad (1 / sqrt(accum)) var = sign(prox_v)/(1+lr l2 ) máx{|prox_v|-lr l1,0}

Clases anidadas

clase ResourceSparseApplyProximalAdagrad.Options Atributos opcionales para ResourceSparseApplyProximalAdagrad

Constantes

Cadena OP_NOMBRE El nombre de esta operación, como lo conoce el motor central de TensorFlow.

Métodos públicos

estático <T extiende TType > ResourceSparseApplyProximalAdagrad
crear ( Alcance alcance, Operando <?> var, Operando <?> accum, Operando <T> lr, Operando <T> l1, Operando <T> l2, Operando <T> grad, Operando <? extiende TNumber > índices, Opciones ... opciones)
Método de fábrica para crear una clase que envuelve una nueva operación ResourceSparseApplyProximalAdagrad.
estático ResourceSparseApplyProximalAdagrad.Options
useLocking (uso booleano Locking)

Métodos heredados

Constantes

Cadena final estática pública OP_NAME

El nombre de esta operación, como lo conoce el motor central de TensorFlow.

Valor constante: "ResourceSparseApplyProximalAdagrad"

Métodos públicos

public static ResourceSparseApplyProximalAdagrad create ( Alcance alcance, Operando <?> var, Operando <?> accum, Operando <T> lr, Operando <T> l1, Operando <T> l2, Operando <T> grad, Operando <? extiende TNumber > índices, Opciones... opciones)

Método de fábrica para crear una clase que envuelve una nueva operación ResourceSparseApplyProximalAdagrad.

Parámetros
alcance alcance actual
var Debe ser de una Variable().
acumular Debe ser de una Variable().
lr Tasa de aprendizaje. Debe ser un escalar.
l1 Regularización L1. Debe ser un escalar.
l2 Regularización L2. Debe ser un escalar.
graduado El gradiente.
índices Un vector de índices en la primera dimensión de var y accum.
opciones lleva valores de atributos opcionales
Devoluciones
  • una nueva instancia de ResourceSparseApplyProximalAdagrad

público estático ResourceSparseApplyProximalAdagrad.Options useLocking (uso booleanoLocking)

Parámetros
utilizarBloqueo Si es Verdadero, la actualización de los tensores var y accum estará protegida por un bloqueo; de lo contrario, el comportamiento no está definido, pero puede presentar menos contención.