ApplyAdagradDa

genel final dersi ApplyAdagradDa

'*var'ı proksimal adagrad şemasına göre güncelleyin.

İç İçe Sınıflar

sınıf ApplyAdagradDa.Seçenekler ApplyAdagradDa için isteğe bağlı özellikler

Sabitler

Sicim OP_NAME Bu operasyonun TensorFlow çekirdek motoru tarafından bilinen adı

Genel Yöntemler

Çıkış <T>
Çıkış olarak ()
Tensörün sembolik tutamacını döndürür.
static <T, TType'ı genişletir > ApplyAdagradDa <T>
create ( Kapsam kapsamı, İşlenen <T> var, İşlenen <T> gradyanBiriktirici, İşlenen <T> degradeKareBiriktirici, İşlenen <T> grad, İşlenen <T> lr, İşlenen <T> l1, İşlenen <T> l2, İşlenen < TInt64 > globalStep, Seçenekler... seçenekler)
Yeni bir ApplyAdagradDa işlemini saran bir sınıf oluşturmaya yönelik fabrika yöntemi.
Çıkış <T>
dışarı ()
"Var" ile aynı.
statik ApplyAdagradDa.Seçenekler
useLocking (Boolean useLocking)

Kalıtsal Yöntemler

Sabitler

genel statik son Dize OP_NAME

Bu operasyonun TensorFlow çekirdek motoru tarafından bilinen adı

Sabit Değer: "ApplyAdagradDA"

Genel Yöntemler

genel Çıkış <T> asOutput ()

Tensörün sembolik tutamacını döndürür.

TensorFlow işlemlerinin girdileri, başka bir TensorFlow işleminin çıktılarıdır. Bu yöntem, girişin hesaplanmasını temsil eden sembolik bir tanıtıcı elde etmek için kullanılır.

public static ApplyAdagradDa <T> create ( Kapsam kapsamı, İşlenen <T> var, İşlenen <T> degradeBiriktirici, İşlenen <T> degradeKareBiriktiren, İşlenen <T> grad, İşlenen <T> lr, İşlenen <T> l1, İşlenen <T > l2, İşlenen < TInt64 > globalStep, Seçenekler... seçenekler)

Yeni bir ApplyAdagradDa işlemini saran bir sınıf oluşturmaya yönelik fabrika yöntemi.

Parametreler
kapsam mevcut kapsam
var Bir Variable()'dan olmalıdır.
degradeAkümülatör Bir Variable()'dan olmalıdır.
degradeKareAkümülatör Bir Variable()'dan olmalıdır.
mezun Gradyan.
IR Ölçekleme faktörü. Bir skaler olmalı.
l1 L1 düzenlemesi. Bir skaler olmalı.
l2 L2 düzenlemesi. Bir skaler olmalı.
küreselAdım Eğitim adımı numarası. Bir skaler olmalı.
seçenekler isteğe bağlı nitelik değerlerini taşır
İadeler
  • ApplyAdagradDa'nın yeni bir örneği

genel Çıkış <T> out ()

"Var" ile aynı.

public static ApplyAdagradDa.Options useLocking (Boolean useLocking)

Parametreler
KullanımKilitleme True ise var ve accum tensörlerinin güncellenmesi bir kilitle korunacaktır; aksi takdirde davranış tanımsızdır ancak daha az çekişme sergileyebilir.