AdaGradDA

classe pública AdaGradDA

Otimizador que implementa o algoritmo Adagrad Dual-Averaging.

Este otimizador cuida da regularização de recursos não vistos em um minilote, atualizando-os quando são vistos com uma regra de atualização de formulário fechado que equivale a atualizá-los em cada minilote.

AdagradDA normalmente é usado quando há necessidade de grande dispersão no modelo treinado. Este otimizador garante esparsidade apenas para modelos lineares. Tenha cuidado ao usar o AdagradDA para redes profundas, pois isso exigirá uma inicialização cuidadosa dos acumuladores de gradiente para seu treinamento.

Constantes

Corda ACUMULADOR
flutuador INITIAL_ACCUMULATOR_DEFAULT
flutuador L1_STRENGTH_DEFAULT
flutuador L2_STRENGTH_DEFAULT
flutuador LEARNING_RATE_DEFAULT
Corda QUADRADO_ACCUMULATOR

Constantes herdadas

Construtores Públicos

AdaGradDA (gráfico gráfico )
Cria um otimizador AdaGradDA
AdaGradDA (gráfico gráfico , float learningRate)
Cria um otimizador AdaGradDA
AdaGradDA (gráfico gráfico , float learningRate, float inicialAccumulatorValue, float l1Strength, float l2Strength)
Cria um otimizador AdaGradDA
AdaGradDA ( gráfico , nome da string, float learningRate)
Cria um otimizador AdaGradDA
AdaGradDA (gráfico gráfico , nome da string, float learningRate, float inicialAccumulatorValue, float l1Strength, float l2Strength)
Cria um otimizador AdaGradDA

Métodos Públicos

Corda
getOptimizerName ()
Obtenha o nome do otimizador.
Corda

Métodos herdados

Constantes

público estático final String ACCUMULATOR

Valor constante: "gradient_accumulator"

flutuador final estático público INITIAL_ACCUMULATOR_DEFAULT

Valor Constante: 0,1

flutuador final estático público L1_STRENGTH_DEFAULT

Valor constante: 0,0

flutuador final estático público L2_STRENGTH_DEFAULT

Valor constante: 0,0

flutuador final estático público LEARNING_RATE_DEFAULT

Valor Constante: 0,001

String final estática pública SQUARED_ACCUMULATOR

Valor constante: "gradient_squared_accumulator"

Construtores Públicos

público AdaGradDA (gráfico gráfico )

Cria um otimizador AdaGradDA

Parâmetros
gráfico o gráfico do TensorFlow

public AdaGradDA (gráfico gráfico , float learningRate)

Cria um otimizador AdaGradDA

Parâmetros
gráfico o gráfico do TensorFlow
taxa de Aprendizagem a taxa de aprendizagem

public AdaGradDA (gráfico gráfico , float learningRate, float inicialAccumulatorValue, float l1Strength, float l2Strength)

Cria um otimizador AdaGradDA

Parâmetros
gráfico o gráfico do TensorFlow
taxa de Aprendizagem a taxa de aprendizagem
valoracumuladorinicial Valor inicial para os acumuladores, deve ser maior que zero.
l1Força força de regularização l1, deve ser maior ou igual a zero.
l2Força força de regularização l2, deve ser maior ou igual a zero.
Lança
Exceção de argumento ilegal se inicialAccumulatorValue não for maior que zero ou l1Strength ou l2Strength for menor que zero

public AdaGradDA (gráfico gráfico , nome String, float learningRate)

Cria um otimizador AdaGradDA

Parâmetros
gráfico o gráfico do TensorFlow
nome o nome deste otimizador (o padrão é 'adagrad-da')
taxa de Aprendizagem a taxa de aprendizagem

public AdaGradDA (gráfico gráfico , nome da string, float learningRate, float inicialAccumulatorValue, float l1Strength, float l2Strength)

Cria um otimizador AdaGradDA

Parâmetros
gráfico o gráfico do TensorFlow
nome o nome deste otimizador (o padrão é 'adagrad-da')
taxa de Aprendizagem a taxa de aprendizagem
valoracumuladorinicial Valor inicial para os acumuladores, deve ser positivo
l1Força força de regularização l1, deve ser maior ou igual a zero.
l2Força força de regularização l2, deve ser maior ou igual a zero.
Lança
Exceção de argumento ilegal se inicialAccumulatorValue não for maior que zero ou * l1Strength ou l2Strength for menor que zero

Métodos Públicos

String pública getOptimizerName ()

Obtenha o nome do otimizador.

Devoluções
  • O nome do otimizador.

String pública paraString ()