Otimizador que implementa o algoritmo Adagrad Dual-Averaging.
Este otimizador cuida da regularização de recursos não vistos em um minilote, atualizando-os quando são vistos com uma regra de atualização de formulário fechado que é equivalente a atualizá-los em cada minilote.
AdagradDA é normalmente usado quando há uma necessidade de grande dispersão no modelo treinado. Este otimizador garante apenas dispersão para modelos lineares. Tenha cuidado ao usar o AdagradDA para redes profundas, pois ele exigirá uma inicialização cuidadosa dos acumuladores de gradiente para que seja treinado.
Constantes
Fragmento | ACUMULADOR | |
flutuador | INITIAL_ACCUMULATOR_DEFAULT | |
flutuador | L1_STRENGTH_DEFAULT | |
flutuador | L2_STRENGTH_DEFAULT | |
flutuador | LEARNING_RATE_DEFAULT | |
Fragmento | SQUARED_ACCUMULATOR |
Constantes herdadas
Construtores Públicos
Métodos Públicos
Fragmento | getOptimizerName () Obtenha o nome do otimizador. |
Fragmento | toString () |
Métodos herdados
Constantes
public static final String ACUMULADOR
flutuante público estático final INITIAL_ACCUMULATOR_DEFAULT
flutuante público estático final L1_STRENGTH_DEFAULT
flutuante público estático final L2_STRENGTH_DEFAULT
flutuante público estático final LEARNING_RATE_DEFAULT
public static final String SQUARED_ACCUMULATOR
Construtores Públicos
public AdaGradDA ( gráfico gráfico)
Cria um Otimizador AdaGradDA
Parâmetros
gráfico | o gráfico TensorFlow |
---|
public AdaGradDA ( gráfico gráfico, float learningRate)
Cria um Otimizador AdaGradDA
Parâmetros
gráfico | o gráfico TensorFlow |
---|---|
taxa de Aprendizagem | a taxa de aprendizagem |
public AdaGradDA ( gráfico gráfico, float learningRate, float initialAccumulatorValue, float l1Strength, float l2Strength)
Cria um Otimizador AdaGradDA
Parâmetros
gráfico | o gráfico TensorFlow |
---|---|
taxa de Aprendizagem | a taxa de aprendizagem |
initialAccumulatorValue | Valor inicial para os acumuladores, deve ser maior que zero. |
l1Força | Força de regularização l1, deve ser maior ou igual a zero. |
12 Força | força de regularização l2, deve ser maior ou igual a zero. |
Lança
Exceção de argumento ilegal | se initialAccumulatorValue não for maior que zero, ou l1Strength ou l2Strength for menor que zero |
---|
public AdaGradDA ( gráfico gráfico, nome da string, float learningRate)
Cria um Otimizador AdaGradDA
Parâmetros
gráfico | o gráfico TensorFlow |
---|---|
nome | o nome para este Otimizador (o padrão é 'adagrad-da') |
taxa de Aprendizagem | a taxa de aprendizagem |
public AdaGradDA ( gráfico gráfico, nome da string, float learningRate, float initialAccumulatorValue, float l1Strength, float l2Strength)
Cria um Otimizador AdaGradDA
Parâmetros
gráfico | o gráfico TensorFlow |
---|---|
nome | o nome para este Otimizador (o padrão é 'adagrad-da') |
taxa de Aprendizagem | a taxa de aprendizagem |
initialAccumulatorValue | Valor inicial para os acumuladores, deve ser positivo |
l1Força | Força de regularização l1, deve ser maior ou igual a zero. |
12 Força | força de regularização l2, deve ser maior ou igual a zero. |
Lança
Exceção de argumento ilegal | se initialAccumulatorValue não for maior que zero, ou * l1Strength ou l2Strength for menor que zero |
---|
Métodos Públicos
public String getOptimizerName ()
Obtenha o nome do otimizador.
Devoluções
- O nome do otimizador.