Optimizador que implementa el algoritmo Adamax.
Es una variante de Adán basada en la norma del infinito. Los parámetros predeterminados siguen los proporcionados en el documento. Adamax es a veces superior a Adam, especialmente en modelos con incrustaciones.
Ver también
Constantes
flotador | BETA_ONE_DEFAULT | |
flotador | BETA_TWO_DEFAULT | |
flotador | EPSILON_DEFAULT | |
Cuerda | PRIMER MOMENTO | |
flotador | LEARNING_RATE_DEFAULT | |
Cuerda | SEGUNDO_MOMENTO |
Constantes heredadas
Constructores públicos
Adamax ( gráfico de gráfico, nombre de cadena) Crea un Optimizador que implementa el algoritmo Adamax. | |
Adamax ( gráfico de gráfico, nombre de cadena, tasa de aprendizaje flotante) Crea un Optimizador que implementa el algoritmo Adamax. | |
Adamax ( gráfico de gráfico, nombre de cadena, tasa de aprendizaje flotante, flotante betaOne, flotante betaTwo, flotante épsilon) Crea un Optimizador que implementa el algoritmo Adamax. |
Métodos públicos
Cuerda | getOptimizerName () Obtenga el nombre del optimizador. |
Métodos heredados
Constantes
flotador final estático público BETA_ONE_DEFAULT
flotador final estático público BETA_TWO_DEFAULT
flotador final estático público EPSILON_DEFAULT
Cadena final estática pública FIRST_MOMENT
flotador final estático público LEARNING_RATE_DEFAULT
Cadena final estática pública SECOND_MOMENT
Constructores públicos
público Adamax ( gráfico gráfico)
Crea un Optimizador que implementa el algoritmo Adamax.
Parámetros
grafico | el gráfico de TensorFlow |
---|
public Adamax ( gráfico gráfico, nombre de cadena)
Crea un Optimizador que implementa el algoritmo Adamax.
Parámetros
grafico | el gráfico de TensorFlow |
---|---|
nombre | nombre de las operaciones creadas al aplicar degradados. El valor predeterminado es "Adamax". |
público Adamax ( gráfico gráfico, tasa de aprendizaje flotante)
Crea un Optimizador que implementa el algoritmo Adamax.
Parámetros
grafico | el gráfico de TensorFlow |
---|---|
tasa de aprendizaje | La tasa de aprendizaje. |
public Adamax ( gráfico de gráfico, nombre de cadena, tasa de aprendizaje flotante)
Crea un Optimizador que implementa el algoritmo Adamax.
Parámetros
grafico | el gráfico de TensorFlow |
---|---|
nombre | nombre de las operaciones creadas al aplicar degradados. El valor predeterminado es "Adamax". |
tasa de aprendizaje | La tasa de aprendizaje. |
public Adamax ( gráfico gráfico, tasa de aprendizaje flotante, flotante betaOne, flotante betaTwo, flotante épsilon)
Crea un Optimizador que implementa el algoritmo Adamax.
Parámetros
grafico | el gráfico de TensorFlow |
---|---|
tasa de aprendizaje | La tasa de aprendizaje. |
betaOne | La tasa de caída exponencial para las estimaciones del primer momento. |
betaTwo | La tasa de caída exponencial para la norma infinita ponderada exponencialmente. |
épsilon | Una pequeña constante para la estabilidad numérica. |
public Adamax ( gráfico de gráfico, nombre de cadena, tasa de aprendizaje flotante, betaOne flotante, betaTwo flotante, epsilon flotante)
Crea un Optimizador que implementa el algoritmo Adamax.
Parámetros
grafico | el gráfico de TensorFlow |
---|---|
nombre | nombre de las operaciones creadas al aplicar degradados. El valor predeterminado es "Adamax". |
tasa de aprendizaje | La tasa de aprendizaje. |
betaOne | La tasa de caída exponencial para las estimaciones del primer momento. |
betaTwo | La tasa de caída exponencial para la norma infinita ponderada exponencialmente. |
épsilon | Una pequeña constante para la estabilidad numérica. |
Métodos públicos
public String getOptimizerName ()
Obtenga el nombre del optimizador.
Devoluciones
- El nombre del optimizador.