org.tensorflow.framework.optimizers

Kelas

Ada Delta Pengoptimal yang mengimplementasikan algoritma Adadelta.
AdaGrad Pengoptimal yang mengimplementasikan algoritma Adagrad.
AdaGradDA Pengoptimal yang mengimplementasikan algoritma Adagrad Dual-Averaging.
adam Pengoptimal yang mengimplementasikan algoritma Adam.
Adamax Pengoptimal yang mengimplementasikan algoritma Adamax.
Ftrl Pengoptimal yang mengimplementasikan algoritma FTRL.
Penurunan Gradien Pengoptimal penurunan gradien Stochastic dasar.
momentum Penurunan gradien stokastik ditambah momentum, baik nesterov atau tradisional.
Nadam Nadam Optimizer yang mengimplementasikan algoritma NAdam.
Pengoptimal Kelas dasar untuk pengoptimal gradien.
Pengoptimal.GradAndVar <T memperluas TType > Kelas yang menampung gradien dan variabel berpasangan.
Pengoptimal.Opsi Atribut opsional untuk Optimizer
RMSProp Pengoptimal yang mengimplementasikan algoritma RMSProp.

Enum

Pengoptimal Enumerator digunakan untuk membuat Pengoptimal baru dengan parameter default.