SparseApplyAdagrad

halka açık final dersi SparseApplyAdagrad

Adagrad şemasına göre '*var' ve '*accum'daki ilgili girişleri güncelleyin.

Yani, derecelendirdiğimiz satırlar için var ve accum'u şu şekilde güncelliyoruz: $$accum += grad * grad$$$$var -= lr * grad * (1 / sqrt(accum))$$

İç İçe Sınıflar

sınıf SparseApplyAdagrad.Options SparseApplyAdagrad için isteğe bağlı özellikler

Sabitler

Sicim OP_NAME Bu operasyonun TensorFlow çekirdek motoru tarafından bilinen adı

Genel Yöntemler

Çıkış <T>
Çıkış olarak ()
Tensörün sembolik tutamacını döndürür.
static <T, TType'ı genişletir > SparseApplyAdagrad <T>
create ( Kapsam kapsamı, İşlenen <T> var, İşlenen <T> accum, İşlenen <T> lr, İşlenen <T> epsilon, İşlenen <T> grad, İşlenen <? extends TNumber > dizinler, Seçenekler... seçenekler)
Yeni bir SparseApplyAdagrad işlemini saran bir sınıf oluşturmaya yönelik fabrika yöntemi.
Çıkış <T>
dışarı ()
"Var" ile aynı.
statik SparseApplyAdagrad.Options
updateSlots (Boolean updateSlots)
statik SparseApplyAdagrad.Options
useLocking (Boolean useLocking)

Kalıtsal Yöntemler

Sabitler

genel statik son Dize OP_NAME

Bu operasyonun TensorFlow çekirdek motoru tarafından bilinen adı

Sabit Değer: "SparseApplyAdagradV2"

Genel Yöntemler

genel Çıkış <T> asOutput ()

Tensörün sembolik tutamacını döndürür.

TensorFlow işlemlerinin girdileri, başka bir TensorFlow işleminin çıktılarıdır. Bu yöntem, girişin hesaplanmasını temsil eden sembolik bir tanıtıcı elde etmek için kullanılır.

public static SparseApplyAdagrad <T> create ( Kapsam kapsamı, İşlenen <T> var, İşlenen <T> accum, İşlenen <T> lr, İşlenen <T> epsilon, İşlenen <T> grad, İşlenen <? extends TNumber > indeksler, Seçenekler ... seçenekler)

Yeni bir SparseApplyAdagrad işlemini saran bir sınıf oluşturmaya yönelik fabrika yöntemi.

Parametreler
kapsam mevcut kapsam
var Bir Variable()'dan olmalıdır.
birikim Bir Variable()'dan olmalıdır.
IR Öğrenme oranı. Bir skaler olmalı.
epsilon Sabit faktör. Bir skaler olmalı.
mezun Gradyan.
endeksler var ve accum'un birinci boyutuna ait indekslerin bir vektörü.
seçenekler isteğe bağlı nitelik değerlerini taşır
İadeler
  • SparseApplyAdagrad'ın yeni bir örneği

genel Çıkış <T> out ()

"Var" ile aynı.

genel statik SparseApplyAdagrad.Options updateSlots (Boolean updateSlots)

public static SparseApplyAdagrad.Options useLocking (Boolean useLocking)

Parametreler
KullanımKilitleme 'Doğru' ise var ve accum tensörlerinin güncellenmesi bir kilitle korunacaktır; aksi takdirde davranış tanımsızdır ancak daha az çekişme sergileyebilir.