AdaGrad

kelas publik AdaGrad

Pengoptimal yang mengimplementasikan algoritma Adagrad.

Adagrad adalah pengoptimal dengan kecepatan pembelajaran khusus parameter, yang disesuaikan dengan seberapa sering parameter diperbarui selama pelatihan. Semakin banyak pembaruan yang diterima suatu parameter, semakin kecil pembaruannya.

Konstanta

Rangkaian AKI
mengambang INITIAL_ACCUMULATOR_DEFAULT
mengambang BELAJAR_RATE_DEFAULT

Konstanta yang Diwarisi

org.tensorflow.framework.optimizers.Optimizer
Rangkaian VARIABEL_V2

Konstruktor Publik

AdaGrad ( Grafik grafik)
Membuat Pengoptimal AdaGrad
AdaGrad (Grafik grafik , tingkat pembelajaran mengambang)
Membuat Pengoptimal AdaGrad
AdaGrad ( Grafik grafik, float learningRate, float initialAccumulatorValue)
Membuat Pengoptimal AdaGrad
AdaGrad (Grafik grafik , Nama string, Tingkat pembelajaran mengambang)
Membuat Pengoptimal AdaGrad
AdaGrad ( Grafik grafik, Nama string, float learningRate, float initialAccumulatorValue)
Membuat Pengoptimal AdaGrad

Metode Publik

Rangkaian
dapatkan Nama Pengoptimal ()
Dapatkan Nama pengoptimal.
Rangkaian

Metode Warisan

org.tensorflow.framework.optimizers.Optimizer
Op
applyGradients (Daftar< GradAndVar <? extends TType >> gradsAndVars, Nama string)
Menerapkan gradien ke variabel
<T memperluas TType > Daftar< GradAndVar <?>>
computerGradients ( Operan <?> hilang)
Menghitung gradien berdasarkan operan kerugian.
String statis
createName ( Output <? extends TType > variabel, String slotName)
Membuat nama dengan menggabungkan nama variabel dan nama slot
Tali abstrak
dapatkan Nama Pengoptimal ()
Dapatkan Nama pengoptimal.
<T memperluas TType > Opsional< Variabel <T>>
getSlot ( Keluaran <T> var, String slotName)
Mendapatkan slot yang terkait dengan variabel dan nama slot yang ditentukan.
Operasi terakhir
dapatkanTF ()
Mendapatkan instans Operasi Pengoptimal
Op
meminimalkan ( Operan <?> kerugian)
Meminimalkan kerugian dengan memperbarui variabel
Op
minimalkan ( Operan <?> kerugian, Nama string)
Meminimalkan kerugian dengan memperbarui variabel
boolean
sama dengan (Objek arg0)
Kelas terakhir<?>
dapatkan Kelas ()
ke dalam
Kode hash ()
kekosongan terakhir
memberitahu ()
kekosongan terakhir
beri tahuSemua ()
Rangkaian
keString ()
kekosongan terakhir
tunggu (arg0 panjang, int arg1)
kekosongan terakhir
tunggu (argumen panjang0)
kekosongan terakhir
Tunggu ()

Konstanta

AKUMULATOR String akhir statis publik

Nilai Konstan: "akumulator"

float akhir statis publik INITIAL_ACCUMULATOR_DEFAULT

Nilai Konstan: 0,01

float akhir statis publik LEARNING_RATE_DEFAULT

Nilai Konstan: 0,001

Konstruktor Publik

AdaGrad publik ( Grafik grafik)

Membuat Pengoptimal AdaGrad

Parameter
grafik Grafik TensorFlow

AdaGrad publik (Grafik grafik , tingkat pembelajaran mengambang)

Membuat Pengoptimal AdaGrad

Parameter
grafik Grafik TensorFlow
Tingkat pembelajaran kecepatan pembelajaran

AdaGrad publik ( Grafik grafik, float learningRate, float initialAccumulatorValue)

Membuat Pengoptimal AdaGrad

Parameter
grafik Grafik TensorFlow
Tingkat pembelajaran kecepatan pembelajaran
NilaiAkumulator awal Nilai awal untuk akumulator harus non-negatif.
Melempar
Pengecualian Argumen Ilegal jika InitialAccumulatorValue negatif

AdaGrad publik (Grafik grafik , Nama string, Tingkat pembelajaran mengambang)

Membuat Pengoptimal AdaGrad

Parameter
grafik Grafik TensorFlow
nama nama untuk Pengoptimal ini (defaultnya adalah 'Adagrad')
Tingkat pembelajaran kecepatan pembelajaran

AdaGrad publik (Grafik grafik , Nama string, Tingkat pembelajaran float, Nilai Akumulator awal float)

Membuat Pengoptimal AdaGrad

Parameter
grafik Grafik TensorFlow
nama nama untuk Pengoptimal ini (defaultnya adalah 'Adagrad')
Tingkat pembelajaran kecepatan pembelajaran
NilaiAkumulator awal Nilai awal untuk akumulator harus non-negatif.
Melempar
Pengecualian Argumen Ilegal jika InitialAccumulatorValue negatif

Metode Publik

String publik getOptimizerName ()

Dapatkan Nama pengoptimal.

Kembali
  • Nama pengoptimal.

String publik keString ()