org.tensorflow.framework.optimizers

Classi

AdaDelta Ottimizzatore che implementa l'algoritmo Adadelta.
AdaGrad Ottimizzatore che implementa l'algoritmo Adagrad.
AdaGradDA Ottimizzatore che implementa l'algoritmo Adagrad Dual-Averaging.
Adamo Ottimizzatore che implementa l'algoritmo di Adam.
Adamax Ottimizzatore che implementa l'algoritmo Adamax.
Ftrl Ottimizzatore che implementa l'algoritmo FTRL.
GradienteDiscesa Ottimizzatore di discesa del gradiente stocastico di base.
Quantità di moto Discesa stocastica del gradiente più quantità di moto, nesterov o tradizionale.
Nadam Nadam Optimizer che implementa l'algoritmo NAdam.
Ottimizzatore Classe base per ottimizzatori di gradiente.
Optimizer.GradAndVar <T estende TType > Una classe che contiene un gradiente e una variabile accoppiati.
Ottimizzatore.Opzioni Attributi facoltativi per Optimizer
RMSProp Ottimizzatore che implementa l'algoritmo RMSProp.

Enumerazioni

Ottimizzatori Enumeratore utilizzato per creare un nuovo ottimizzatore con parametri predefiniti.