AdaGradDA

clase pública AdaGradDA

Optimizador que implementa el algoritmo Adagrad Dual-Averaging.

Este optimizador se encarga de regularizar las funciones invisibles en un mini lote actualizándolas cuando se ven con una regla de actualización de formulario cerrado que equivale a haberlas actualizado en cada mini lote.

AdagradDA se utiliza normalmente cuando se necesita una gran escasez en el modelo entrenado. Este optimizador solo garantiza escasez para modelos lineales. Tenga cuidado al utilizar AdagradDA para redes profundas, ya que requerirá una inicialización cuidadosa de los acumuladores de gradiente para que se entrene.

Constantes

Cadena ACUMULADOR
flotar INITIAL_ACCUMULATOR_DEFAULT
flotar L1_STRENGTH_DEFAULT
flotar L2_STRENGTH_DEFAULT
flotar APRENDIZAJE_RATE_DEFAULT
Cadena ACUMULADOR CUADRADO

Constantes heredadas

Constructores Públicos

AdaGradDA (gráfico gráfico )
Crea un optimizador AdaGradDA
AdaGradDA (gráfico gráfico , tasa de aprendizaje flotante)
Crea un optimizador AdaGradDA
AdaGradDA (gráfico gráfico , tasa de aprendizaje flotante, valor acumulador inicial flotante, fuerza l1 flotante, fuerza l2 flotante)
Crea un optimizador AdaGradDA
AdaGradDA (gráfico gráfico , nombre de cadena, tasa de aprendizaje flotante)
Crea un optimizador AdaGradDA
AdaGradDA (gráfico gráfico , nombre de cadena, tasa de aprendizaje flotante, valor acumulador inicial flotante, fuerza l1 flotante, fuerza l2 flotante)
Crea un optimizador AdaGradDA

Métodos públicos

Cadena
getOptimizerName ()
Obtenga el nombre del optimizador.
Cadena

Métodos heredados

Constantes

ACUMULADOR de cadena final estático público

Valor constante: "gradient_accumulator"

flotación final estática pública INITIAL_ACCUMULATOR_DEFAULT

Valor constante: 0,1

flotador final estático público L1_STRENGTH_DEFAULT

Valor constante: 0,0

flotador final estático público L2_STRENGTH_DEFAULT

Valor constante: 0,0

flotación final estática pública LEARNING_RATE_DEFAULT

Valor constante: 0,001

Cadena final estática pública SQUARED_ACCUMULATOR

Valor constante: "gradient_squared_accumulator"

Constructores Públicos

público AdaGradDA (gráfico gráfico )

Crea un optimizador AdaGradDA

Parámetros
grafico el gráfico de TensorFlow

público AdaGradDA (gráfico gráfico , tasa de aprendizaje flotante)

Crea un optimizador AdaGradDA

Parámetros
grafico el gráfico de TensorFlow
tasa de aprendizaje la tasa de aprendizaje

public AdaGradDA (gráfico gráfico , tasa de aprendizaje flotante, valor acumulador inicial flotante, fuerza l1 flotante, fuerza l2 flotante)

Crea un optimizador AdaGradDA

Parámetros
grafico el gráfico de TensorFlow
tasa de aprendizaje la tasa de aprendizaje
valoracumuladorinicial El valor inicial de los acumuladores debe ser mayor que cero.
l1Fuerza l1 fuerza de regularización, debe ser mayor o igual a cero.
l2Fuerza Fuerza de regularización l2, debe ser mayor o igual a cero.
Lanza
Argumento de excepción ilegal si inicialAccumulatorValue no es mayor que cero, o l1Strength o l2Strength es menor que cero

public AdaGradDA (gráfico gráfico , nombre de cadena, tasa de aprendizaje flotante)

Crea un optimizador AdaGradDA

Parámetros
grafico el gráfico de TensorFlow
nombre el nombre de este Optimizador (el valor predeterminado es 'adagrad-da')
tasa de aprendizaje la tasa de aprendizaje

public AdaGradDA (gráfico gráfico , nombre de cadena, tasa de aprendizaje flotante, valor acumulador inicial flotante, fuerza l1 flotante, fuerza l2 flotante)

Crea un optimizador AdaGradDA

Parámetros
grafico el gráfico de TensorFlow
nombre el nombre de este Optimizador (el valor predeterminado es 'adagrad-da')
tasa de aprendizaje la tasa de aprendizaje
valoracumuladorinicial El valor inicial de los acumuladores debe ser positivo.
l1Fuerza l1 fuerza de regularización, debe ser mayor o igual a cero.
l2Fuerza Fuerza de regularización l2, debe ser mayor o igual a cero.
Lanza
Argumento de excepción ilegal si inicialAccumulatorValue no es mayor que cero, o * l1Strength o l2Strength es menor que cero

Métodos públicos

cadena pública getOptimizerName ()

Obtenga el nombre del optimizador.

Devoluciones
  • El nombre del optimizador.

cadena pública a cadena ()