ApplyAdaMax

clase final pública ApplyAdaMax

Actualice '*var' según el algoritmo AdamMax.

m_t <- beta1 * m_{t-1} + (1 - beta1) * g v_t <- max(beta2 * v_{t-1}, abs(g)) variable <- variable - tasa_de_aprendizaje / (1 - beta1^ t) * m_t / (v_t + épsilon)

Clases anidadas

clase AplicarAdaMax.Opciones Atributos opcionales para ApplyAdaMax

Constantes

Cadena OP_NOMBRE El nombre de esta operación, como lo conoce el motor central de TensorFlow.

Métodos públicos

Salida <T>
como salida ()
Devuelve el identificador simbólico del tensor.
estático <T extiende TType > ApplyAdaMax <T>
crear ( Alcance alcance, Operando <T> var, Operando <T> m, Operando <T> v, Operando <T> beta1Power, Operando <T> lr, Operando <T> beta1, Operando <T> beta2, Operando <T > épsilon, Operando <T> grad, Opciones... opciones)
Método de fábrica para crear una clase que envuelve una nueva operación ApplyAdaMax.
Salida <T>
afuera ()
Igual que "var".
Estático ApplyAdaMax.Options
useLocking (uso booleano Locking)

Métodos heredados

Constantes

Cadena final estática pública OP_NAME

El nombre de esta operación, como lo conoce el motor central de TensorFlow.

Valor constante: "ApplyAdaMax"

Métodos públicos

Salida pública <T> como Salida ()

Devuelve el identificador simbólico del tensor.

Las entradas a las operaciones de TensorFlow son salidas de otra operación de TensorFlow. Este método se utiliza para obtener un identificador simbólico que representa el cálculo de la entrada.

public static ApplyAdaMax <T> create ( Alcance alcance, Operando <T> var, Operando <T> m, Operando <T> v, Operando <T> beta1Power, Operando <T> lr, Operando <T> beta1, Operando <T > beta2, Operando <T> épsilon, Operando <T> grad, Opciones... opciones)

Método de fábrica para crear una clase que envuelve una nueva operación ApplyAdaMax.

Parámetros
alcance alcance actual
var Debe ser de una Variable().
metro Debe ser de una Variable().
v Debe ser de una Variable().
beta1potencia Debe ser un escalar.
lr Factor de escala. Debe ser un escalar.
beta1 Factor de impulso. Debe ser un escalar.
beta2 Factor de impulso. Debe ser un escalar.
épsilon Término de cresta. Debe ser un escalar.
graduado El gradiente.
opciones lleva valores de atributos opcionales
Devoluciones
  • una nueva instancia de ApplyAdaMax

Salida pública <T> salida ()

Igual que "var".

público estático ApplyAdaMax.Options useLocking (useLocking booleano)

Parámetros
utilizarBloqueo Si es "True", la actualización de los tensores var, m y v estará protegida por un bloqueo; de lo contrario, el comportamiento no está definido, pero puede presentar menos contención.