ApplyAdadelta

ApplyAdadelta public final class

Actualice '* var' de acuerdo con el esquema adadelta.

acumula = rho () * acumula + (1 - rho ()) * grad.cuadrado (); actualizar = (actualizar_accum + épsilon) .sqrt () * (acumular + épsilon ()). rsqrt () * grad; update_accum = rho () * update_accum + (1 - rho ()) * update.square (); var - = actualización;

Clases anidadas

clase ApplyAdadelta.Options Los atributos opcionales para ApplyAdadelta

Constantes

Cuerda OP_NAME El nombre de esta operación, como lo conoce el motor central de TensorFlow

Métodos públicos

Salida <T>
asOutput ()
Devuelve el identificador simbólico del tensor.
estática <T se extiende Ttype > ApplyAdadelta <T>
crear ( Alcance alcance, operando <T> var, operando <T> acum, operando <T> accumUpdate, operando <T> lr, operando <T> rho, operando <T> epsilon, operando <T> graduado, Opciones .. . opciones)
Método de fábrica para crear una clase que envuelva una nueva operación ApplyAdadelta.
Salida <T>
fuera ()
Igual que "var".
estáticas ApplyAdadelta.Options
useLocking (Boolean useLocking)

Métodos heredados

Constantes

OP_NAME pública final static String

El nombre de esta operación, como lo conoce el motor central de TensorFlow

Valor constante: "ApplyAdadelta"

Métodos públicos

pública de salida <T> asOutput ()

Devuelve el identificador simbólico del tensor.

Las entradas a las operaciones de TensorFlow son salidas de otra operación de TensorFlow. Este método se utiliza para obtener un identificador simbólico que representa el cálculo de la entrada.

public static ApplyAdadelta <T> crear ( Alcance alcance, operando <T> var, operando <T> acum, operando <T> accumUpdate, operando <T> lr, operando <T> rho, operando <T> epsilon, operando <T > graduado, opciones ... opciones)

Método de fábrica para crear una clase que envuelva una nueva operación ApplyAdadelta.

Parámetros
alcance alcance actual
var Debe ser de una variable ().
acumular Debe ser de una variable ().
acumUpdate Debe ser de una variable ().
lr Factor de escala. Debe ser un escalar.
rho Factor de descomposición. Debe ser un escalar.
épsilon Factor constante. Debe ser un escalar.
graduado El gradiente.
opciones lleva valores de atributos opcionales
Devoluciones
  • una nueva instancia de ApplyAdadelta

pública de salida <T> a cabo ()

Igual que "var".

public static ApplyAdadelta.Options useLocking (booleano useLocking)

Parámetros
useLocking Si es Verdadero, la actualización de los tensores var, acum y update_accum estará protegida por un candado; de lo contrario, el comportamiento no está definido, pero puede presentar menos contención.