Optimizador que implementa el algoritmo Adagrad.
Adagrad es un optimizador con tasas de aprendizaje específicas de parámetros, que se adaptan en relación con la frecuencia con la que se actualiza un parámetro durante el entrenamiento. Cuantas más actualizaciones reciba un parámetro, menores serán las actualizaciones.
Constantes
Cadena | ACUMULADOR | |
flotar | INITIAL_ACCUMULATOR_DEFAULT | |
flotar | APRENDIZAJE_RATE_DEFAULT |
Constantes heredadas
Cadena | VARIABLE_V2 |
Constructores Públicos
Métodos públicos
Cadena | getOptimizerName () Obtenga el nombre del optimizador. |
Cadena | Encadenar () |
Métodos heredados
Op. | applyGradients (Lista< GradAndVar <? extiende TType >> gradsAndVars, nombre de cadena) Aplica gradientes a las variables. |
<T extiende TType > Lista< GradAndVar <?>> | ComputeGradients (pérdida de operando <?>) Calcula los gradientes basándose en un operando de pérdida. |
cadena estática | createName ( Salida <? extiende TType > variable, String slotName) Crea un nombre combinando un nombre de variable y un nombre de ranura |
cadena abstracta | getOptimizerName () Obtenga el nombre del optimizador. |
<T extiende TType > Opcional< Variable <T>> | |
operaciones finales | obtenerTF () Obtiene la instancia de operaciones del optimizador. |
Op. | |
Op. |
booleano | es igual (Objeto arg0) |
Clase final<?> | obtenerclase () |
En t | código hash () |
vacío final | notificar () |
vacío final | notificar a todos () |
Cadena | Encadenar () |
vacío final | esperar (arg0 largo, int arg1) |
vacío final | espera (arg0 largo) |
vacío final | esperar () |
Constantes
ACUMULADOR de cadena final estático público
flotación final estática pública INITIAL_ACCUMULATOR_DEFAULT
flotación final estática pública LEARNING_RATE_DEFAULT
Constructores Públicos
AdaGrad público (gráfico gráfico )
Crea un optimizador AdaGrad
Parámetros
grafico | el gráfico de TensorFlow |
---|
AdaGrad público (gráfico gráfico , tasa de aprendizaje flotante)
Crea un optimizador AdaGrad
Parámetros
grafico | el gráfico de TensorFlow |
---|---|
tasa de aprendizaje | la tasa de aprendizaje |
AdaGrad público (gráfico gráfico , tasa de aprendizaje flotante, valor acumulador inicial flotante)
Crea un optimizador AdaGrad
Parámetros
grafico | el gráfico de TensorFlow |
---|---|
tasa de aprendizaje | la tasa de aprendizaje |
valoracumuladorinicial | El valor inicial de los acumuladores no debe ser negativo. |
Lanza
Argumento de excepción ilegal | si el valor acumulador inicial es negativo |
---|
AdaGrad público (gráfico gráfico , nombre de cadena, tasa de aprendizaje flotante)
Crea un optimizador AdaGrad
Parámetros
grafico | el gráfico de TensorFlow |
---|---|
nombre | el nombre de este Optimizador (el valor predeterminado es 'Adagrad') |
tasa de aprendizaje | la tasa de aprendizaje |
AdaGrad público ( gráfico , nombre de cadena, tasa de aprendizaje flotante, valor acumulador inicial flotante)
Crea un optimizador AdaGrad
Parámetros
grafico | el gráfico de TensorFlow |
---|---|
nombre | el nombre de este Optimizador (el valor predeterminado es 'Adagrad') |
tasa de aprendizaje | la tasa de aprendizaje |
valoracumuladorinicial | El valor inicial de los acumuladores no debe ser negativo. |
Lanza
Argumento de excepción ilegal | si el valor acumulador inicial es negativo |
---|
Métodos públicos
cadena pública getOptimizerName ()
Obtenga el nombre del optimizador.
Devoluciones
- El nombre del optimizador.