ResourceApplyAdagrad

ResourceApplyAdagrad public final class

Actualice '* var' de acuerdo con el esquema adagrad.

acum + = grad * grad var - = lr * grad * (1 / (sqrt (acum) + epsilon))

Clases anidadas

clase ResourceApplyAdagrad.Options Los atributos opcionales para ResourceApplyAdagrad

Constantes

Cuerda OP_NAME El nombre de esta operación, como lo conoce el motor central de TensorFlow

Métodos públicos

estática <T se extiende Ttype > ResourceApplyAdagrad
crear ( Alcance alcance, operando <?> var, operando <?> acum, operando <T> lr, operando <T> épsilon, operando <T> graduado, Opciones ... Opciones)
Método de fábrica para crear una clase que envuelva una nueva operación ResourceApplyAdagrad.
estáticas ResourceApplyAdagrad.Options
updateSlots (updateSlots booleanas)
estáticas ResourceApplyAdagrad.Options
useLocking (Boolean useLocking)

Métodos heredados

Constantes

OP_NAME pública final static String

El nombre de esta operación, como lo conoce el motor central de TensorFlow

Valor constante: "ResourceApplyAdagradV2"

Métodos públicos

public static ResourceApplyAdagrad crear ( Alcance alcance, operando <?> var, operando <?> acum, operando <T> lr, operando <T> épsilon, operando <T> graduado, Opciones ... Opciones)

Método de fábrica para crear una clase que envuelva una nueva operación ResourceApplyAdagrad.

Parámetros
alcance alcance actual
var Debe ser de una variable ().
acumular Debe ser de una variable ().
lr Factor de escala. Debe ser un escalar.
épsilon Factor constante. Debe ser un escalar.
graduado El gradiente.
opciones lleva valores de atributos opcionales
Devoluciones
  • una nueva instancia de ResourceApplyAdagrad

estáticas pública ResourceApplyAdagrad.Options updateSlots (updateSlots booleanas)

estáticas pública ResourceApplyAdagrad.Options useLocking (booleano useLocking)

Parámetros
useLocking Si es "Verdadero", la actualización de los tensores var y acumuladores estará protegida por un bloqueo; de lo contrario, el comportamiento no está definido, pero puede presentar menos contención.