ResourceSparseApplyAdagrad

ResourceSparseApplyAdagrad public final class

Actualice las entradas relevantes en '* var' y '* acumula' de acuerdo con el esquema adagrad.

Es decir, para las filas para las que hemos graduado, actualizamos var y acumulamos de la siguiente manera: acum + = grad * grad var - = lr * grad * (1 / sqrt (acum))

Clases anidadas

clase ResourceSparseApplyAdagrad.Options Los atributos opcionales para ResourceSparseApplyAdagrad

Constantes

Cuerda OP_NAME El nombre de esta operación, como lo conoce el motor central de TensorFlow

Métodos públicos

estática <T se extiende Ttype > ResourceSparseApplyAdagrad
crear ( Alcance alcance, operando <?> var, operando <?> acum, operando <T> lr, operando <T> graduado, operando <? extiende TNumber > índices, opciones ... opciones)
Método de fábrica para crear una clase que envuelva una nueva operación ResourceSparseApplyAdagrad.
estáticas ResourceSparseApplyAdagrad.Options
updateSlots (updateSlots booleanas)
estáticas ResourceSparseApplyAdagrad.Options
useLocking (Boolean useLocking)

Métodos heredados

Constantes

OP_NAME pública final static String

El nombre de esta operación, como lo conoce el motor central de TensorFlow

Valor constante: "ResourceSparseApplyAdagrad"

Métodos públicos

public static ResourceSparseApplyAdagrad crear ( Alcance alcance, operando <?> var, operando <?> acum, operando <T> lr, operando <T> graduado, operando <? extiende TNumber > índices, opciones ... opciones)

Método de fábrica para crear una clase que envuelva una nueva operación ResourceSparseApplyAdagrad.

Parámetros
alcance alcance actual
var Debe ser de una variable ().
acumular Debe ser de una variable ().
lr Tasa de aprendizaje. Debe ser un escalar.
graduado El gradiente.
índices Un vector de índices en la primera dimensión de var y acum.
opciones lleva valores de atributos opcionales
Devoluciones
  • una nueva instancia de ResourceSparseApplyAdagrad

estáticas pública ResourceSparseApplyAdagrad.Options updateSlots (updateSlots booleanas)

estáticas pública ResourceSparseApplyAdagrad.Options useLocking (booleano useLocking)

Parámetros
useLocking Si es "Verdadero", la actualización de los tensores var y acumuladores estará protegida por un bloqueo; de lo contrario, el comportamiento no está definido, pero puede presentar menos contención.