AdaGrad

genel sınıf AdaGrad

Adagrad algoritmasını uygulayan optimizer.

Adagrad, eğitim sırasında bir parametrenin ne sıklıkta güncellendiğine göre uyarlanan, parametreye özel öğrenme oranlarına sahip bir optimizasyon aracıdır. Bir parametre ne kadar çok güncelleme alırsa güncellemeler o kadar küçük olur.

Sabitler

Sicim AKÜMÜLATÖR
batmadan yüzmek INITIAL_ACCUMULATOR_DEFAULT
batmadan yüzmek LEARNING_RATE_DEFAULT

Devralınan Sabitler

org.tensorflow.framework.optimizers.Optimizer sınıfından

Kamu İnşaatçıları

AdaGrad ( Grafik grafiği)
Bir AdaGrad Optimize Edici oluşturur
AdaGrad ( Grafik grafiği, kayan öğrenme oranı)
Bir AdaGrad Optimize Edici oluşturur
AdaGrad ( Grafik grafiği, kayan öğrenme Oranı, kayan başlangıçBiriktirici Değeri)
Bir AdaGrad Optimize Edici oluşturur
AdaGrad ( Grafik grafiği, Dize adı, kayan öğrenme Hızı)
Bir AdaGrad Optimize Edici oluşturur
AdaGrad ( Grafik grafiği, Dize adı, kayan öğrenme Oranı, kayan başlangıçAccumulatorValue)
Bir AdaGrad Optimize Edici oluşturur

Genel Yöntemler

Sicim
getOptimizerName ()
Optimize edicinin Adını alın.
Sicim

Kalıtsal Yöntemler

org.tensorflow.framework.optimizers.Optimizer sınıfından
Operasyon
ApplyGradients (Liste< GradAndVar <?, TType >> gradsAndVars, Dize adını genişletir)
Değişkenlere degradeler uygular
<T extends TType > Listele< GradAndVar <?>>
computeGradients ( İşlenen <?> kaybı)
Kayıp işlenenine göre gradyanları hesaplar.
statik Dize
createName ( Output <? extends TType > değişken, String slotName)
Bir değişken adı ile yuva adını birleştirerek bir ad oluşturur
soyut Dize
getOptimizerName ()
Optimize edicinin Adını alın.
<T TType'ı genişletir > İsteğe bağlı< Değişken <T>>
getSlot ( Output <T> var, String slotName)
Belirtilen değişken ve yuva adıyla ilişkili yuvayı alır.
son Operasyonlar
getTF ()
Optimizer'ın Ops örneğini alır
Operasyon
en aza indir ( İşlenen <?> kaybı)
Değişkenleri güncelleyerek kaybı en aza indirir
Operasyon
simge durumuna küçült ( İşlenen <?> kaybı, Dize adı)
Değişkenleri güncelleyerek kaybı en aza indirir
boolean
eşittir (Nesne arg0)
son Sınıf<?>
getClass ()
int
hash kodu ()
son boşluk
bildir ()
son boşluk
tümünü bildir ()
Sicim
toString ()
son boşluk
bekle (uzun arg0, int arg1)
son boşluk
bekle (uzun arg0)
son boşluk
Beklemek ()

Sabitler

genel statik final Dize AKÜMÜLATÖRÜ

Sabit Değer: "akümülatör"

genel statik son kayan nokta INITIAL_ACCUMULATOR_DEFAULT

Sabit Değer: 0,01

genel statik son kayan nokta LEARNING_RATE_DEFAULT

Sabit Değer: 0,001

Kamu İnşaatçıları

herkese açık AdaGrad ( Grafik grafiği)

Bir AdaGrad Optimize Edici oluşturur

Parametreler
grafik TensorFlow Grafiği

herkese açık AdaGrad ( Grafik grafiği, kayan öğrenme Oranı)

Bir AdaGrad Optimize Edici oluşturur

Parametreler
grafik TensorFlow Grafiği
öğrenme oranı öğrenme oranı

herkese açık AdaGrad ( Grafik grafiği, kayan öğrenme Oranı, kayan başlangıçAccumulatorValue)

Bir AdaGrad Optimize Edici oluşturur

Parametreler
grafik TensorFlow Grafiği
öğrenme oranı öğrenme oranı
ilkBiriktiriciDeğeri Akümülatörlerin başlangıç ​​değeri negatif olmamalıdır.
Atar
YasadışıTartışmaİstisna eğer başlangıçAccumulatorValue negatifse

public AdaGrad ( Grafik grafiği, Dize adı, kayan öğrenme Hızı)

Bir AdaGrad Optimize Edici oluşturur

Parametreler
grafik TensorFlow Grafiği
isim bu Optimize Edicinin adı (varsayılanı 'Adagrad'dır)
öğrenme oranı öğrenme oranı

public AdaGrad ( Grafik grafiği, Dize adı, kayan öğrenme Oranı, kayan başlangıçAccumulatorValue)

Bir AdaGrad Optimize Edici oluşturur

Parametreler
grafik TensorFlow Grafiği
isim bu Optimize Edicinin adı (varsayılanı 'Adagrad'dır)
öğrenme oranı öğrenme oranı
ilkBiriktiriciDeğeri Akümülatörlerin başlangıç ​​değeri negatif olmamalıdır.
Atar
YasadışıTartışmaİstisna eğer başlangıçAccumulatorValue negatifse

Genel Yöntemler

public String getOptimizerName ()

Optimize edicinin Adını alın.

İadeler
  • Optimize edici adı.

public String toString ()