ResourceApplyAdadelta

clase final pública ResourceApplyAdadelta

Actualice '*var' según el esquema adadelta.

acumulación = rho() * acumulación + (1 - rho()) * grad.square(); actualizar = (update_accum + epsilon).sqrt() * (accum + epsilon()).rsqrt() * graduado; update_accum = rho() * update_accum + (1 - rho()) * update.square(); var -= actualizar;

Clases anidadas

clase ResourceApplyAdadelta.Opciones Atributos opcionales para ResourceApplyAdadelta

Constantes

Cadena OP_NOMBRE El nombre de esta operación, como lo conoce el motor central de TensorFlow.

Métodos públicos

estático <T extiende TType > ResourceApplyAdadelta
crear ( Alcance alcance, Operando <?> var, Operando <?> accum, Operando <?> accumUpdate, Operando <T> lr, Operando <T> rho, Operando <T> épsilon, Operando <T> grad, Opciones.. . opciones)
Método de fábrica para crear una clase que envuelve una nueva operación ResourceApplyAdadelta.
ResourceApplyAdadelta.Options estático
useLocking (uso booleano Locking)

Métodos heredados

Constantes

Cadena final estática pública OP_NAME

El nombre de esta operación, como lo conoce el motor central de TensorFlow.

Valor constante: "ResourceApplyAdadelta"

Métodos públicos

pública estática ResourceApplyAdadelta crear (alcance alcance , Operando <?> var, Operando <?> accum, Operando <?> accumUpdate, Operando <T> lr, Operando <T> rho, Operando <T> épsilon, Operando <T> grad, Opciones... opciones)

Método de fábrica para crear una clase que envuelve una nueva operación ResourceApplyAdadelta.

Parámetros
alcance alcance actual
var Debe ser de una Variable().
acumular Debe ser de una Variable().
acumularActualización Debe ser de una Variable().
lr Factor de escala. Debe ser un escalar.
rho Factor de decadencia. Debe ser un escalar.
épsilon Factor constante. Debe ser un escalar.
graduado El gradiente.
opciones lleva valores de atributos opcionales
Devoluciones
  • una nueva instancia de ResourceApplyAdadelta

ResourceApplyAdadelta.Options estático público useLocking (useLocking booleano)

Parámetros
utilizarBloqueo Si es Verdadero, la actualización de los tensores var, accum y update_accum estará protegida por un bloqueo; de lo contrario, el comportamiento no está definido, pero puede presentar menos contención.