org.tensorflow.framework.optimizers

Aulas

AdaDelta Otimizador que implementa o algoritmo Adadelta.
AdaGrad Otimizador que implementa o algoritmo Adagrad.
AdaGradDA Otimizador que implementa o algoritmo Adagrad Dual-Averaging.
Adão Otimizador que implementa o algoritmo Adam.
Adamax Otimizador que implementa o algoritmo Adamax.
Ftrl Otimizador que implementa o algoritmo FTRL.
Gradiente descendente Otimizador de descida gradiente estocástico básico.
Momento Descida gradiente estocástica mais impulso, nesterov ou tradicional.
Nadam Nadam Optimizer que implementa o algoritmo NAdam.
Otimizador Classe base para otimizadores de gradiente.
Optimizer.GradAndVar <T estende TType > Uma classe que contém um gradiente e uma variável emparelhados.
Otimizador.Opções Atributos opcionais para Optimizer
RMSProp Otimizador que implementa o algoritmo RMSProp.

Enums

Otimizadores Enumerador usado para criar um novo Otimizador com parâmetros padrão.