ResourceApplyAdam

clase final pública ResourceApplyAdam

Actualice '*var' según el algoritmo de Adam.

$$\text{lr}_t := \mathrm{learning_rate} * \sqrt{1 - \beta_2^t} / (1 - \beta_1^t)$$$$m_t := \beta_1 * m_{t-1} + (1 - \beta_1) * g$$$$v_t := \beta_2 * v_{t-1} + (1 - \beta_2) * g * g$$$$\text{variable} := \text{variable} - \text{lr}_t * m_t / (\sqrt{v_t} + \epsilon)$$

Clases anidadas

clase ResourceApplyAdam.Opciones Atributos opcionales para ResourceApplyAdam

Constantes

Cadena OP_NOMBRE El nombre de esta operación, como lo conoce el motor central de TensorFlow.

Métodos públicos

estático <T extiende TType > ResourceApplyAdam
crear ( Alcance alcance, Operando <?> var, Operando <?> m, Operando <?> v, Operando <T> beta1Power, Operando <T> beta2Power, Operando <T> lr, Operando <T> beta1, Operando <T > beta2, Operando <T> épsilon, Operando <T> grad, Opciones... opciones)
Método de fábrica para crear una clase que envuelve una nueva operación ResourceApplyAdam.
ResourceApplyAdam.Options estático
useLocking (uso booleano Locking)
ResourceApplyAdam.Options estático
useNesterov (uso booleanoNesterov)

Métodos heredados

Constantes

Cadena final estática pública OP_NAME

El nombre de esta operación, como lo conoce el motor central de TensorFlow.

Valor constante: "ResourceApplyAdam"

Métodos públicos

public static ResourceApplyAdam create ( Alcance alcance, Operando <?> var, Operando <?> m, Operando <?> v, Operando <T> beta1Power, Operando <T> beta2Power, Operando <T> lr, Operando <T> beta1, Operando <T> beta2, Operando <T> épsilon, Operando <T> grad, Opciones... opciones)

Método de fábrica para crear una clase que envuelve una nueva operación ResourceApplyAdam.

Parámetros
alcance alcance actual
var Debe ser de una Variable().
metro Debe ser de una Variable().
v Debe ser de una Variable().
beta1potencia Debe ser un escalar.
beta2potencia Debe ser un escalar.
lr Factor de escala. Debe ser un escalar.
beta1 Factor de impulso. Debe ser un escalar.
beta2 Factor de impulso. Debe ser un escalar.
épsilon Término de cresta. Debe ser un escalar.
graduado El gradiente.
opciones lleva valores de atributos opcionales
Devoluciones
  • una nueva instancia de ResourceApplyAdam

ResourceApplyAdam.Options estático público useLocking (useLocking booleano)

Parámetros
utilizarBloqueo Si es "True", la actualización de los tensores var, m y v estará protegida por un bloqueo; de lo contrario, el comportamiento no está definido, pero puede presentar menos contención.

ResourceApplyAdam.Options estático público useNesterov (uso booleanoNesterov)

Parámetros
utilizarNesterov Si es "True", utiliza la actualización de Nesterov.