ResourceSparseApplyProximalAdagrad

ResourceSparseApplyProximalAdagrad public final class

Entradas de actualización dispersas en '* var' y '* acumula' según el algoritmo FOBOS.

Esto es para las filas que tenemos graduado para, actualizamos var y acumuladores de la siguiente manera: acum + = grad graduado prox_v = var prox_v - = lr graduado (1 / sqrt (Acum)) var = signo (prox_v) / (1 + lr l2 ) max {| prox_v | -lr l1,0}

Clases anidadas

clase ResourceSparseApplyProximalAdagrad.Options Los atributos opcionales para ResourceSparseApplyProximalAdagrad

Constantes

Cuerda OP_NAME El nombre de esta operación, como lo conoce el motor central de TensorFlow

Métodos públicos

estática <T se extiende Ttype > ResourceSparseApplyProximalAdagrad
crear ( Alcance alcance, operando <?> var, operando <?> Acum, operando <T> LR, operando <T> L1, operando <T> L2, operando <T> graduado, operando <? extiende TNumber > índices, opciones ... opciones)
Método de fábrica para crear una clase que envuelva una nueva operación ResourceSparseApplyProximalAdagrad.
estáticas ResourceSparseApplyProximalAdagrad.Options
useLocking (Boolean useLocking)

Métodos heredados

Constantes

OP_NAME pública final static String

El nombre de esta operación, como lo conoce el motor central de TensorFlow

Valor constante: "ResourceSparseApplyProximalAdagrad"

Métodos públicos

public static ResourceSparseApplyProximalAdagrad crear ( Alcance alcance, operando <?> var, operando <?> acum, operando <T> lr, operando <T> L1, operando <T> L2, operando <T> graduado, operando <? extiende TNumber > índices, opciones ... opciones)

Método de fábrica para crear una clase que envuelva una nueva operación ResourceSparseApplyProximalAdagrad.

Parámetros
alcance alcance actual
var Debe ser de una variable ().
acumular Debe ser de una variable ().
lr Tasa de aprendizaje. Debe ser un escalar.
l1 Regularización L1. Debe ser un escalar.
l2 Regularización L2. Debe ser un escalar.
graduado El gradiente.
índices Un vector de índices en la primera dimensión de var y acum.
opciones lleva valores de atributos opcionales
Devoluciones
  • una nueva instancia de ResourceSparseApplyProximalAdagrad

estáticas pública ResourceSparseApplyProximalAdagrad.Options useLocking (booleano useLocking)

Parámetros
useLocking Si es Verdadero, la actualización de los tensores var y acumuladores estará protegida por un candado; de lo contrario, el comportamiento no está definido, pero puede presentar menos contención.