SparseApplyAdagradV2

genel final sınıfı SparseApplyAdagradV2

Adagrad şemasına göre '*var' ve '*accum'daki ilgili girişleri güncelleyin.

Yani, derecelendirdiğimiz satırlar için var ve accum'u aşağıdaki gibi güncelleriz:

$$accum += grad * grad$$
$$var -= lr * grad * (1 / sqrt(accum))$$

İç İçe Sınıflar

sınıf SparseApplyAdagradV2.Options SparseApplyAdagradV2 için isteğe bağlı özellikler

Genel Yöntemler

Çıkış <T>
Çıkış olarak ()
Bir tensörün sembolik tutamacını döndürür.
statik <T, U Sayıyı genişletir> SparseApplyAdagradV2 <T>
create ( Kapsam kapsamı, İşlenen <T> var, İşlenen <T> birikimi, İşlenen <T> lr, İşlenen <T> epsilon, İşlenen <T> grad, İşlenen <U> indeksleri, Seçenekler... seçenekler)
Yeni bir SparseApplyAdagradV2 işlemini saran bir sınıf oluşturmaya yönelik fabrika yöntemi.
Çıkış <T>
dışarı ()
"Var" ile aynı.
statik SparseApplyAdagradV2.Options
updateSlots (Boolean updateSlots)
statik SparseApplyAdagradV2.Options
useLocking (Boolean useLocking)

Kalıtsal Yöntemler

Genel Yöntemler

genel Çıkış <T> asOutput ()

Bir tensörün sembolik tutamacını döndürür.

TensorFlow işlemlerinin girdileri, başka bir TensorFlow işleminin çıktılarıdır. Bu yöntem, girişin hesaplanmasını temsil eden sembolik bir tanıtıcı elde etmek için kullanılır.

public static SparseApplyAdagradV2 <T> create ( Kapsam kapsamı, İşlenen <T> var, İşlenen <T> birikimi, İşlenen <T> lr, İşlenen <T> epsilon, İşlenen <T> grad, İşlenen <U> indeksleri, Seçenekler.. . seçenekler)

Yeni bir SparseApplyAdagradV2 işlemini saran bir sınıf oluşturmaya yönelik fabrika yöntemi.

Parametreler
kapsam mevcut kapsam
var Bir Variable()'dan olmalıdır.
birikim Bir Variable()'dan olmalıdır.
IR Öğrenme oranı. Bir skaler olmalı.
epsilon Sabit faktör. Bir skaler olmalı.
mezun Gradyan.
endeksler var ve accum'un ilk boyutuna ait indekslerin bir vektörü.
seçenekler isteğe bağlı nitelik değerlerini taşır
İadeler
  • SparseApplyAdagradV2'nin yeni bir örneği

genel Çıkış <T> out ()

"Var" ile aynı.

genel statik SparseApplyAdagradV2.Options updateSlots (Boolean updateSlots)

public static SparseApplyAdagradV2.Options useLocking (Boolean useLocking)

Parametreler
KullanımKilitleme 'Doğru' ise var ve accum tensörlerinin güncellenmesi bir kilitle korunacaktır; aksi takdirde davranış tanımsızdır ancak daha az çekişme sergileyebilir.