ApplyAdaMax

classe final pública ApplyAdaMax

Atualize '*var' de acordo com o algoritmo AdaMax.

m_t <- beta1 * m_{t-1} + (1 - beta1) * g v_t <- max(beta2 * v_{t-1}, abs(g)) variável <- variável - taxa_de_aprendizagem / (1 - beta1^ t) * m_t / (v_t + épsilon)

Classes aninhadas

aula AplicarAdaMax.Options Atributos opcionais para ApplyAdaMax

Constantes

Corda OP_NAME O nome desta operação, conforme conhecido pelo mecanismo principal do TensorFlow

Métodos Públicos

Saída <T>
asOutput ()
Retorna o identificador simbólico do tensor.
estático <T estende TType > ApplyAdaMax <T>
create ( Escopo do escopo , Operando <T> var, Operando <T> m, Operando <T> v, Operando <T> beta1Power, Operando <T> lr, Operando <T> beta1, Operando <T> beta2, Operando <T > épsilon, Operando <T> grad, Opções... opções)
Método de fábrica para criar uma classe que envolve uma nova operação ApplyAdaMax.
Saída <T>
fora ()
O mesmo que "var".
ApplyAdaMax.Options estático
useLocking (booleano useLocking)

Métodos herdados

Constantes

String final estática pública OP_NAME

O nome desta operação, conforme conhecido pelo mecanismo principal do TensorFlow

Valor Constante: "ApplyAdaMax"

Métodos Públicos

Saída pública <T> asOutput ()

Retorna o identificador simbólico do tensor.

As entradas para operações do TensorFlow são saídas de outra operação do TensorFlow. Este método é usado para obter um identificador simbólico que representa o cálculo da entrada.

public static ApplyAdaMax <T> create (Escopo escopo , Operando <T> var, Operando <T> m, Operando <T> v, Operando <T> beta1Power, Operando <T> lr, Operando <T> beta1, Operando <T > beta2, Operando <T> épsilon, Operando <T> grad, Opções... opções)

Método de fábrica para criar uma classe que envolve uma nova operação ApplyAdaMax.

Parâmetros
escopo escopo atual
var Deve ser de uma variável().
eu Deve ser de uma variável().
v Deve ser de uma variável().
beta1Power Deve ser um escalar.
lr Fator de escala. Deve ser um escalar.
beta1 Fator de impulso. Deve ser um escalar.
beta2 Fator de impulso. Deve ser um escalar.
épsilon Termo de cume. Deve ser um escalar.
graduado O gradiente.
opções carrega valores de atributos opcionais
Devoluções
  • uma nova instância de ApplyAdaMax

Saída pública <T> out ()

O mesmo que "var".

public static ApplyAdaMax.Options useLocking (booleano useLocking)

Parâmetros
useLocking Se `True`, a atualização dos tensores var, m e v será protegida por um bloqueio; caso contrário, o comportamento será indefinido, mas poderá apresentar menos contenção.