AdaGradDA

clase pública AdaGradDA

Optimizador que implementa el algoritmo Adagrad Dual-Averaging.

Este optimizador se encarga de la regularización de características invisibles en un mini lote actualizándolas cuando se ven con una regla de actualización de formulario cerrado que equivale a haberlas actualizado en cada mini lote.

AdagradDA se utiliza normalmente cuando existe la necesidad de una gran escasez en el modelo entrenado. Este optimizador solo garantiza la escasez de modelos lineales. Tenga cuidado al usar AdagradDA para redes profundas, ya que requerirá una inicialización cuidadosa de los acumuladores de gradiente para que se entrene.

Constantes

Cuerda ACUMULADOR
flotador INITIAL_ACCUMULATOR_DEFAULT
flotador L1_STRENGTH_DEFAULT
flotador L2_STRENGTH_DEFAULT
flotador LEARNING_RATE_DEFAULT
Cuerda SQUARED_ACCUMULATOR

Constantes heredadas

Constructores públicos

AdaGradDA ( gráfico gráfico)
Crea un optimizador AdaGradDA
AdaGradDA ( gráfico gráfico, tasa de aprendizaje flotante)
Crea un optimizador AdaGradDA
AdaGradDA ( gráfico de gráfico, tasa de aprendizaje flotante, valor inicial de acumulación flotante, fuerza l1 flotante, fuerza l2 flotante)
Crea un optimizador AdaGradDA
AdaGradDA ( gráfico de gráfico, nombre de cadena, tasa de aprendizaje flotante)
Crea un optimizador AdaGradDA
AdaGradDA ( gráfico de gráfico, nombre de cadena, tasa de aprendizaje flotante, valor de acumulación inicial flotante, fuerza l1 flotante, fuerza l2 flotante)
Crea un optimizador AdaGradDA

Métodos públicos

Cuerda
getOptimizerName ()
Obtenga el nombre del optimizador.
Cuerda

Métodos heredados

Constantes

ACUMULADOR de cuerda final estático público

Valor constante: "gradiente_acumulador"

flotador final estático público INITIAL_ACCUMULATOR_DEFAULT

Valor constante: 0,1

flotador final estático público L1_STRENGTH_DEFAULT

Valor constante: 0.0

flotador final estático público L2_STRENGTH_DEFAULT

Valor constante: 0.0

flotador final estático público LEARNING_RATE_DEFAULT

Valor constante: 0,001

Cadena final estática pública SQUARED_ACCUMULATOR

Valor constante: "gradient_squared_accumulator"

Constructores públicos

público AdaGradDA ( gráfico gráfico)

Crea un optimizador AdaGradDA

Parámetros
grafico el gráfico de TensorFlow

público AdaGradDA ( gráfico gráfico, tasa de aprendizaje flotante)

Crea un optimizador AdaGradDA

Parámetros
grafico el gráfico de TensorFlow
tasa de aprendizaje la tasa de aprendizaje

public AdaGradDA ( Graph graph, float learningRate, float initialAccumulatorValue, float l1Strength, float l2Strength)

Crea un optimizador AdaGradDA

Parámetros
grafico el gráfico de TensorFlow
tasa de aprendizaje la tasa de aprendizaje
initialAccumulatorValue El valor inicial de los acumuladores debe ser mayor que cero.
l1Fuerza l1 fuerza de regularización, debe ser mayor o igual a cero.
l2Fuerza l2 fuerza de regularización, debe ser mayor o igual a cero.
Lanza
Argumento de excepción ilegal si initialAccumulatorValue no es mayor que cero, o l1Strength o l2Strength es menor que cero

público AdaGradDA ( gráfico gráfico, nombre de cadena, tasa de aprendizaje flotante)

Crea un optimizador AdaGradDA

Parámetros
grafico el gráfico de TensorFlow
nombre el nombre de este Optimizador (el valor predeterminado es "adagrad-da")
tasa de aprendizaje la tasa de aprendizaje

public AdaGradDA ( gráfico de gráfico, nombre de cadena, tasa de aprendizaje flotante, valor de acumulación inicial flotante, fuerza l1 flotante, fuerza l2 flotante)

Crea un optimizador AdaGradDA

Parámetros
grafico el gráfico de TensorFlow
nombre el nombre de este Optimizador (el valor predeterminado es "adagrad-da")
tasa de aprendizaje la tasa de aprendizaje
initialAccumulatorValue Valor inicial de los acumuladores, debe ser positivo
l1Fuerza l1 fuerza de regularización, debe ser mayor o igual a cero.
l2Fuerza l2 fuerza de regularización, debe ser mayor o igual a cero.
Lanza
Argumento de excepción ilegal si initialAccumulatorValue no es mayor que cero, o * l1Strength o l2Strength es menor que cero

Métodos públicos

public String getOptimizerName ()

Obtenga el nombre del optimizador.

Devoluciones
  • El nombre del optimizador.

cadena pública toString ()