org.tensorflow.framework.optimizers

Clases

adadelta Optimizador que implementa el algoritmo Adadelta.
adagrad Optimizador que implementa el algoritmo Adagrad.
AdaGradDA Optimizador que implementa el algoritmo Adagrad Dual-Averaging.
Adán Optimizador que implementa el algoritmo Adam.
Adamax Optimizador que implementa el algoritmo Adamax.
Ftrl Optimizador que implementa el algoritmo FTRL.
Descenso de gradiente Optimizador básico de descenso de gradiente estocástico.
Impulso Descenso de gradiente estocástico más impulso, ya sea nesterov o tradicional.
nadam Nadam Optimizer que implementa el algoritmo NAdam.
Optimizador Clase base para optimizadores de gradiente.
Optimizer.GradAndVar <T extiende TType > Una clase que contiene un gradiente y una variable emparejados.
Optimizador.Opciones Atributos opcionales para Optimizer
RMSProp Optimizador que implementa el algoritmo RMSProp.

Enumeraciones

Optimizadores Enumerador utilizado para crear un nuevo Optimizador con parámetros predeterminados.