Adam algoritmasını uygulayan optimizer.
Adam optimizasyonu, birinci dereceden ve ikinci dereceden momentlerin uyarlanabilir tahminine dayanan stokastik bir gradyan iniş yöntemidir.
Kingma ve diğerleri, 2014'e göre yöntem "hesaplama açısından verimlidir, çok az bellek gereksinimi vardır, gradyanların çapraz yeniden ölçeklendirilmesinde değişmezdir ve veri/parametreler açısından büyük problemler için çok uygundur".
@bkz. Kingma ve diğerleri, 2014, Adam: Stokastik Optimizasyon İçin Bir Yöntem .
Sabitler
batmadan yüzmek | BETA_ONE_DEFAULT | |
batmadan yüzmek | BETA_TWO_DEFAULT | |
batmadan yüzmek | EPSILON_DEFAULT | |
Sicim | İLK AN | |
batmadan yüzmek | LEARNING_RATE_DEFAULT | |
Sicim | SECOND_MOMENT |
Devralınan Sabitler
Sicim | DEĞİŞKEN_V2 |
Kamu İnşaatçıları
Genel Yöntemler
static <T TType'ı genişletir > Op | createAdamMinimize ( Kapsam kapsamı, İşlenen <T> kaybı, kayan öğrenme Oranı, kayan betaOne, kayan betaTwo, kayan epsilon, Seçenekler... seçenekler) Kaybı en aza indiren Operasyonu oluşturur |
Sicim | getOptimizerName () Optimize edicinin Adını alın. |
Sicim | toString () |
Kalıtsal Yöntemler
Operasyon | ApplyGradients (Liste< GradAndVar <?, TType >> gradsAndVars, Dize adını genişletir) Değişkenlere degradeler uygular |
<T extends TType > Listele< GradAndVar <?>> | |
statik Dize | createName ( Output <? extends TType > değişken, String slotName) Bir değişken adı ile yuva adını birleştirerek bir ad oluşturur |
soyut Dize | getOptimizerName () Optimize edicinin Adını alın. |
<T TType'ı genişletir > İsteğe bağlı< Değişken <T>> | |
son Operasyonlar | getTF () Optimizer'ın Ops örneğini alır |
Operasyon | |
Operasyon | simge durumuna küçült ( İşlenen <?> kaybı, Dize adı) Değişkenleri güncelleyerek kaybı en aza indirir |
boolean | eşittir (Nesne arg0) |
son Sınıf<?> | getClass () |
int | hash kodu () |
son boşluk | bildir () |
son boşluk | tümünü bildir () |
Sicim | toString () |
son boşluk | bekle (uzun arg0, int arg1) |
son boşluk | bekle (uzun arg0) |
son boşluk | Beklemek () |
Sabitler
genel statik son kayan nokta BETA_ONE_DEFAULT
genel statik son kayan nokta BETA_TWO_DEFAULT
genel statik son kayan nokta EPSILON_DEFAULT
genel statik son Dize FIRST_MOMENT
genel statik son kayan nokta LEARNING_RATE_DEFAULT
genel statik son Dize SECOND_MOMENT
Kamu İnşaatçıları
halka açık Adam ( Grafik grafiği)
Bir Adam optimize edici oluşturur
Parametreler
grafik | TensorFlow grafiği |
---|
herkese açık Adam ( Grafik grafiği, kayan öğrenme Oranı)
Bir Adam optimize edici oluşturur
Parametreler
grafik | TensorFlow grafiği |
---|---|
öğrenme oranı | öğrenme oranı |
public Adam ( Grafik grafiği, float öğrenmeOranı, float betaOne, float betaTwo, float epsilon)
Bir Adam optimize edici oluşturur
Parametreler
grafik | TensorFlow grafiği |
---|---|
öğrenme oranı | öğrenme oranı |
betaOne | 1. an tahminleri için üstel bozunma oranı. Varsayılan 0,9'dur. |
betaİki | 2. moment tahminleri için üstel bozunma oranı. Varsayılan 0,999'dur. |
epsilon | Sayısal kararlılık için küçük bir sabit. Bu epsilon, makalenin Algoritma 1'indeki epsilon değil, Kingma ve Ba makalesindeki (Bölüm 2.1'den hemen önceki formülde) "epsilon şapkası"dır. Varsayılan olarak 1e-8'dir. |
public Adam ( Grafik grafiği, Dize adı, kayan öğrenme Oranı)
Bir Adam optimize edici oluşturur
Parametreler
grafik | TensorFlow grafiği |
---|---|
isim | Optimize Edici adı varsayılan olarak "Adam"dır |
öğrenme oranı | öğrenme oranı |
public Adam ( Grafik grafiği, Dize adı, float öğrenme Oranı, float betaOne, float betaTwo, float epsilon)
Bir Adam optimize edici oluşturur
Parametreler
grafik | TensorFlow grafiği |
---|---|
isim | Optimize Edici adı varsayılan olarak "Adam"dır |
öğrenme oranı | öğrenme oranı |
betaOne | 1. an tahminleri için üstel bozunma oranı. Varsayılan 0,9'dur. |
betaİki | 2. moment tahminleri için üstel bozunma oranı. Varsayılan 0,999'dur. |
epsilon | Sayısal kararlılık için küçük bir sabit. Bu epsilon, makalenin Algoritma 1'indeki epsilon değil, Kingma ve Ba makalesindeki (Bölüm 2.1'den hemen önceki formülde) "epsilon şapkası"dır. Varsayılan olarak 1e-8'dir. |
Genel Yöntemler
public static Op createAdamMinimize ( Kapsam kapsamı, Operand <T> kaybı, float öğrenmeRate, float betaOne, float betaTwo, float epsilon, Seçenekler... seçenekler)
Kaybı en aza indiren Operasyonu oluşturur
Parametreler
kapsam | TensorFlow kapsamı |
---|---|
kayıp | kaybı en aza indirmek |
öğrenme oranı | öğrenme oranı |
betaOne | 1. an tahminleri için üstel bozunma oranı. |
betaİki | 2. moment tahminleri için üstel bozunma oranı. |
epsilon | Sayısal kararlılık için küçük bir sabit. Bu epsilon, makalenin Algoritma 1'indeki epsilon değil, Kingma ve Ba makalesindeki (Bölüm 2.1'den hemen önceki formülde) "epsilon şapkasıdır". |
seçenekler | İsteğe bağlı Optimize Edici özellikleri |
İadeler
- Kaybı en aza indiren operasyon
Atar
YasadışıTartışmaİstisna | kapsam bir Grafiği temsil etmiyorsa |
---|
public String getOptimizerName ()
Optimize edicinin Adını alın.
İadeler
- Optimize edici adı.