Optimizador que implementa el algoritmo Adagrad Dual-Averaging.
Este optimizador se encarga de la regularización de características invisibles en un mini lote actualizándolas cuando se ven con una regla de actualización de formulario cerrado que equivale a haberlas actualizado en cada mini lote.
AdagradDA se utiliza normalmente cuando existe la necesidad de una gran escasez en el modelo entrenado. Este optimizador solo garantiza la escasez de modelos lineales. Tenga cuidado al usar AdagradDA para redes profundas, ya que requerirá una inicialización cuidadosa de los acumuladores de gradiente para que se entrene.
Constantes
Cuerda | ACUMULADOR | |
flotador | INITIAL_ACCUMULATOR_DEFAULT | |
flotador | L1_STRENGTH_DEFAULT | |
flotador | L2_STRENGTH_DEFAULT | |
flotador | LEARNING_RATE_DEFAULT | |
Cuerda | SQUARED_ACCUMULATOR |
Constantes heredadas
Constructores públicos
AdaGradDA ( gráfico de gráfico, tasa de aprendizaje flotante, valor inicial de acumulación flotante, fuerza l1 flotante, fuerza l2 flotante) Crea un optimizador AdaGradDA | |
AdaGradDA ( gráfico de gráfico, nombre de cadena, tasa de aprendizaje flotante) Crea un optimizador AdaGradDA | |
AdaGradDA ( gráfico de gráfico, nombre de cadena, tasa de aprendizaje flotante, valor de acumulación inicial flotante, fuerza l1 flotante, fuerza l2 flotante) Crea un optimizador AdaGradDA |
Métodos públicos
Cuerda | getOptimizerName () Obtenga el nombre del optimizador. |
Cuerda | toString () |
Métodos heredados
Constantes
ACUMULADOR de cuerda final estático público
flotador final estático público INITIAL_ACCUMULATOR_DEFAULT
flotador final estático público L1_STRENGTH_DEFAULT
flotador final estático público L2_STRENGTH_DEFAULT
flotador final estático público LEARNING_RATE_DEFAULT
Cadena final estática pública SQUARED_ACCUMULATOR
Constructores públicos
público AdaGradDA ( gráfico gráfico)
Crea un optimizador AdaGradDA
Parámetros
grafico | el gráfico de TensorFlow |
---|
público AdaGradDA ( gráfico gráfico, tasa de aprendizaje flotante)
Crea un optimizador AdaGradDA
Parámetros
grafico | el gráfico de TensorFlow |
---|---|
tasa de aprendizaje | la tasa de aprendizaje |
public AdaGradDA ( Graph graph, float learningRate, float initialAccumulatorValue, float l1Strength, float l2Strength)
Crea un optimizador AdaGradDA
Parámetros
grafico | el gráfico de TensorFlow |
---|---|
tasa de aprendizaje | la tasa de aprendizaje |
initialAccumulatorValue | El valor inicial de los acumuladores debe ser mayor que cero. |
l1Fuerza | l1 fuerza de regularización, debe ser mayor o igual a cero. |
l2Fuerza | l2 fuerza de regularización, debe ser mayor o igual a cero. |
Lanza
Argumento de excepción ilegal | si initialAccumulatorValue no es mayor que cero, o l1Strength o l2Strength es menor que cero |
---|
público AdaGradDA ( gráfico gráfico, nombre de cadena, tasa de aprendizaje flotante)
Crea un optimizador AdaGradDA
Parámetros
grafico | el gráfico de TensorFlow |
---|---|
nombre | el nombre de este Optimizador (el valor predeterminado es "adagrad-da") |
tasa de aprendizaje | la tasa de aprendizaje |
public AdaGradDA ( gráfico de gráfico, nombre de cadena, tasa de aprendizaje flotante, valor de acumulación inicial flotante, fuerza l1 flotante, fuerza l2 flotante)
Crea un optimizador AdaGradDA
Parámetros
grafico | el gráfico de TensorFlow |
---|---|
nombre | el nombre de este Optimizador (el valor predeterminado es "adagrad-da") |
tasa de aprendizaje | la tasa de aprendizaje |
initialAccumulatorValue | Valor inicial de los acumuladores, debe ser positivo |
l1Fuerza | l1 fuerza de regularización, debe ser mayor o igual a cero. |
l2Fuerza | l2 fuerza de regularización, debe ser mayor o igual a cero. |
Lanza
Argumento de excepción ilegal | si initialAccumulatorValue no es mayor que cero, o * l1Strength o l2Strength es menor que cero |
---|
Métodos públicos
public String getOptimizerName ()
Obtenga el nombre del optimizador.
Devoluciones
- El nombre del optimizador.