AdaGrad

clase pública AdaGrad

Optimizador que implementa el algoritmo Adagrad.

Adagrad es un optimizador con tasas de aprendizaje específicas de parámetros, que se adaptan en relación con la frecuencia con la que se actualiza un parámetro durante el entrenamiento. Cuantas más actualizaciones reciba un parámetro, menores serán las actualizaciones.

Constantes

Constantes heredadas

org.tensorflow.framework.optimizers.Optimizer
Cadena VARIABLE_V2

Constructores Públicos

AdaGrad (gráfico gráfico )
Crea un optimizador AdaGrad
AdaGrad (gráfico gráfico , tasa de aprendizaje flotante)
Crea un optimizador AdaGrad
AdaGrad (gráfico gráfico , tasa de aprendizaje flotante, valor acumulador inicial flotante)
Crea un optimizador AdaGrad
AdaGrad (gráfico gráfico , nombre de cadena, tasa de aprendizaje flotante)
Crea un optimizador AdaGrad
AdaGrad ( gráfico , nombre de cadena, tasa de aprendizaje flotante, valor acumulador inicial flotante)
Crea un optimizador AdaGrad

Métodos públicos

Cadena
getOptimizerName ()
Obtenga el nombre del optimizador.
Cadena

Métodos heredados

org.tensorflow.framework.optimizers.Optimizer
Op.
applyGradients (Lista< GradAndVar <? extiende TType >> gradsAndVars, nombre de cadena)
Aplica gradientes a las variables.
<T extiende TType > Lista< GradAndVar <?>>
ComputeGradients (pérdida de operando <?>)
Calcula los gradientes basándose en un operando de pérdida.
cadena estática
createName ( Salida <? extiende TType > variable, String slotName)
Crea un nombre combinando un nombre de variable y un nombre de ranura
cadena abstracta
getOptimizerName ()
Obtenga el nombre del optimizador.
<T extiende TType > Opcional< Variable <T>>
getSlot ( Salida <T> var, String slotName)
Obtiene la ranura asociada con la variable especificada y el nombre de la ranura.
operaciones finales
obtenerTF ()
Obtiene la instancia de operaciones del optimizador.
Op.
minimizar ( operando <?> pérdida)
Minimiza la pérdida actualizando las variables.
Op.
minimizar ( operando <?> pérdida, nombre de cadena)
Minimiza la pérdida actualizando las variables.
booleano
es igual (Objeto arg0)
Clase final<?>
obtenerclase ()
En t
código hash ()
vacío final
notificar ()
vacío final
notificar a todos ()
Cadena
Encadenar ()
vacío final
esperar (arg0 largo, int arg1)
vacío final
espera (arg0 largo)
vacío final
esperar ()

Constantes

ACUMULADOR de cadena final estático público

Valor constante: "acumulador"

flotación final estática pública INITIAL_ACCUMULATOR_DEFAULT

Valor constante: 0,01

flotación final estática pública LEARNING_RATE_DEFAULT

Valor constante: 0,001

Constructores Públicos

AdaGrad público (gráfico gráfico )

Crea un optimizador AdaGrad

Parámetros
grafico el gráfico de TensorFlow

AdaGrad público (gráfico gráfico , tasa de aprendizaje flotante)

Crea un optimizador AdaGrad

Parámetros
grafico el gráfico de TensorFlow
tasa de aprendizaje la tasa de aprendizaje

AdaGrad público (gráfico gráfico , tasa de aprendizaje flotante, valor acumulador inicial flotante)

Crea un optimizador AdaGrad

Parámetros
grafico el gráfico de TensorFlow
tasa de aprendizaje la tasa de aprendizaje
valoracumuladorinicial El valor inicial de los acumuladores no debe ser negativo.
Lanza
Argumento de excepción ilegal si el valor acumulador inicial es negativo

AdaGrad público (gráfico gráfico , nombre de cadena, tasa de aprendizaje flotante)

Crea un optimizador AdaGrad

Parámetros
grafico el gráfico de TensorFlow
nombre el nombre de este Optimizador (el valor predeterminado es 'Adagrad')
tasa de aprendizaje la tasa de aprendizaje

AdaGrad público ( gráfico , nombre de cadena, tasa de aprendizaje flotante, valor acumulador inicial flotante)

Crea un optimizador AdaGrad

Parámetros
grafico el gráfico de TensorFlow
nombre el nombre de este Optimizador (el valor predeterminado es 'Adagrad')
tasa de aprendizaje la tasa de aprendizaje
valoracumuladorinicial El valor inicial de los acumuladores no debe ser negativo.
Lanza
Argumento de excepción ilegal si el valor acumulador inicial es negativo

Métodos públicos

cadena pública getOptimizerName ()

Obtenga el nombre del optimizador.

Devoluciones
  • El nombre del optimizador.

cadena pública a cadena ()