Advertencia: esta API está obsoleta y se eliminará en una versión futura de TensorFlow una vez que el reemplazo sea ​​estable.

ResourceApplyAdamWithAmsgrad

Organiza tus páginas con colecciones Guarda y categoriza el contenido según tus preferencias.
clase final pública ResourceApplyAdamWithAmsgrad

Actualice '*var' de acuerdo con el algoritmo de Adam.

$$\text{lr}_t := \mathrm{learning_rate} * \sqrt{1 - \beta_2^t} / (1 - \beta_1^t)$$$$m_t := \beta_1 * m_{t-1} + (1 - \beta_1) * g$$$$v_t := \beta_2 * v_{t-1} + (1 - \beta_2) * g * g$$$$\hat{v}_t := max{\hat{v}_{t-1}, v_t}$$$$\text{variable} := \text{variable} - \text{lr}_t * m_t / (\sqrt{\hat{v}_t} + \epsilon)$$

Clases anidadas

clase ResourceApplyAdamWithAmsgrad.Opciones Atributos opcionales para ResourceApplyAdamWithAmsgrad

Métodos públicos

<T> estático ResourceApplyAdamWithAmsgrad
create ( Scope scope, Operando <?> var, Operando <?> m, Operando <?> v, Operando <?> vhat, Operando <T> beta1Power, Operando <T> beta2Power, Operando <T> lr, Operando <T > beta1, Operando <T> beta2, Operando <T> épsilon, Operando <T> graduado, Opciones... opciones)
Método de fábrica para crear una clase que envuelve una nueva operación ResourceApplyAdamWithAmsgrad.
ResourceApplyAdamWithAmsgrad.Options estático
useLocking (booleano useLocking)

Métodos Heredados

Métodos públicos

public static ResourceApplyAdamWithAmsgrad create ( Ámbito ámbito, Operando <?> var, Operando <?> m, Operando <?> v, Operando <?> vhat, Operando <T> beta1Power, Operando <T> beta2Power, Operando <T> lr, Operando <T> beta1, Operando <T> beta2, Operando <T> épsilon, Operando <T> graduado, Opciones... opciones)

Método de fábrica para crear una clase que envuelve una nueva operación ResourceApplyAdamWithAmsgrad.

Parámetros
alcance alcance actual
variable Debe ser de una Variable().
metro Debe ser de una Variable().
v Debe ser de una Variable().
que Debe ser de una Variable().
beta1Power Debe ser un escalar.
beta2Power Debe ser un escalar.
yo Factor de escala. Debe ser un escalar.
beta1 Factor de impulso. Debe ser un escalar.
beta2 Factor de impulso. Debe ser un escalar.
épsilon Término de cresta. Debe ser un escalar.
graduado el gradiente
opciones lleva valores de atributos opcionales
Devoluciones
  • una nueva instancia de ResourceApplyAdamWithAmsgrad

público estático ResourceApplyAdamWithAmsgrad.Options useLocking (booleano useLocking)

Parámetros
usoBloqueo Si es `Verdadero`, la actualización de los tensores var, m y v estará protegida por un candado; de lo contrario, el comportamiento no está definido, pero puede exhibir menos contención.