ResourceApplyAdagrad

clase final pública ResourceApplyAdagrad

Actualice '*var' según el esquema adagrad.

acumulación += grad * grad var -= lr * grad * (1 / (sqrt(acumulación) + épsilon))

Clases anidadas

clase ResourceApplyAdagrad.Opciones Atributos opcionales para ResourceApplyAdagrad

Constantes

Cadena OP_NOMBRE El nombre de esta operación, como lo conoce el motor central de TensorFlow.

Métodos públicos

estático <T extiende TType > ResourceApplyAdagrad
crear (alcance alcance , operando <?> var, operando <?> accum, operando <T> lr, operando <T> épsilon, operando <T> grad, opciones... opciones)
Método de fábrica para crear una clase que envuelve una nueva operación ResourceApplyAdagrad.
ResourceApplyAdagrad.Options estático
updateSlots (actualización booleana)
ResourceApplyAdagrad.Options estático
useLocking (uso booleano Locking)

Métodos heredados

Constantes

Cadena final estática pública OP_NAME

El nombre de esta operación, como lo conoce el motor central de TensorFlow.

Valor constante: "ResourceApplyAdagradV2"

Métodos públicos

creación pública estática de ResourceApplyAdagrad (alcance alcance , operando <?> var, operando <?> accum, operando <T> lr, operando <T> épsilon, operando <T> grad, opciones... opciones)

Método de fábrica para crear una clase que envuelve una nueva operación ResourceApplyAdagrad.

Parámetros
alcance alcance actual
var Debe ser de una Variable().
acumular Debe ser de una Variable().
lr Factor de escala. Debe ser un escalar.
épsilon Factor constante. Debe ser un escalar.
graduado El gradiente.
opciones lleva valores de atributos opcionales
Devoluciones
  • una nueva instancia de ResourceApplyAdagrad

ResourceApplyAdagrad.Options estático público updateSlots (UpdateSlots booleanos)

ResourceApplyAdagrad.Options estático público useLocking (useLocking booleano)

Parámetros
utilizarBloqueo Si es "True", la actualización de los tensores var y accum estará protegida por un bloqueo; de lo contrario, el comportamiento no está definido, pero puede presentar menos contención.