ResourceApplyProximalAdagrad

genel son sınıf ResourceApplyProximalAdagrad

'*var' ve '*accum' değerlerini Adagrad öğrenme oranıyla FOBOS'a göre güncelleyin.

accum += grad grad prox_v = var - lr grad (1 / sqrt(accum)) var =sign(prox_v)/(1+lr l2) max{|prox_v|-lr l1,0}

İç İçe Sınıflar

sınıf ResourceApplyProximalAdagrad.Options ResourceApplyProximalAdagrad için isteğe bağlı özellikler

Sabitler

Sicim OP_NAME Bu operasyonun TensorFlow çekirdek motoru tarafından bilinen adı

Genel Yöntemler

static <T, TType'ı genişletir > ResourceApplyProximalAdagrad
create ( Kapsam kapsamı, İşlenen <?> var, İşlenen <?> accum, İşlenen <T> lr, İşlenen <T> l1, İşlenen <T> l2, İşlenen <T> grad, Seçenekler... seçenekler)
Yeni bir ResourceApplyProximalAdagrad işlemini saran bir sınıf oluşturmaya yönelik fabrika yöntemi.
statik ResourceApplyProximalAdagrad.Options
useLocking (Boolean useLocking)

Kalıtsal Yöntemler

Sabitler

genel statik son Dize OP_NAME

Bu operasyonun TensorFlow çekirdek motoru tarafından bilinen adı

Sabit Değer: "ResourceApplyProximalAdagrad"

Genel Yöntemler

public static ResourceApplyProximalAdagrad create ( Kapsam kapsamı, İşlenen <?> var, İşlenen <?> accum, İşlenen <T> lr, İşlenen <T> l1, İşlenen <T> l2, İşlenen <T> grad, Seçenekler... seçenekler)

Yeni bir ResourceApplyProximalAdagrad işlemini saran bir sınıf oluşturmaya yönelik fabrika yöntemi.

Parametreler
kapsam mevcut kapsam
var Bir Variable()'dan olmalıdır.
birikim Bir Variable()'dan olmalıdır.
IR Ölçekleme faktörü. Bir skaler olmalı.
l1 L1 düzenlemesi. Bir skaler olmalı.
l2 L2 düzenlemesi. Bir skaler olmalı.
mezun Gradyan.
seçenekler isteğe bağlı nitelik değerlerini taşır
İadeler
  • ResourceApplyProximalAdagrad'ın yeni bir örneği

public static ResourceApplyProximalAdagrad.Options useLocking (Boolean useLocking)

Parametreler
KullanımKilitleme True ise var ve accum tensörlerinin güncellenmesi bir kilitle korunacaktır; aksi takdirde davranış tanımsızdır ancak daha az çekişme sergileyebilir.