tensorflow :: ops :: ResourceApplyAdagrad
#include <training_ops.h>
Adagrad şemasına göre '* var'ı güncelleyin.
Özet
birikim + = derece * derece var - = lr * derece * (1 / sqrt (birikim))
Argümanlar:
- kapsam: Bir Scope nesnesi
- var: Değişken () 'den olmalıdır.
- birikim: Bir Değişken () 'den olmalıdır.
- lr: Ölçekleme faktörü. Skaler olmalı.
- grad: Gradyan.
İsteğe bağlı özellikler (bkz. Attrs
):
- use_locking:
True
ise, var ve akümülörlerin güncellenmesi bir kilit ile korunacaktır; aksi takdirde davranış tanımsızdır, ancak daha az çekişme gösterebilir.
İadeler:
- oluşturulan
Operation
Yapıcılar ve Yıkıcılar | |
---|---|
ResourceApplyAdagrad (const :: tensorflow::Scope & scope, :: tensorflow::Input var, :: tensorflow::Input accum, :: tensorflow::Input lr, :: tensorflow::Input grad) | |
ResourceApplyAdagrad (const :: tensorflow::Scope & scope, :: tensorflow::Input var, :: tensorflow::Input accum, :: tensorflow::Input lr, :: tensorflow::Input grad, const ResourceApplyAdagrad::Attrs & attrs) |
Genel özellikler | |
---|---|
operation |
Kamusal işlevler | |
---|---|
operator::tensorflow::Operation () const |
Genel statik işlevler | |
---|---|
UpdateSlots (bool x) | |
UseLocking (bool x) |
Yapılar | |
---|---|
tensorflow :: ops :: ResourceApplyAdagrad :: Attrs | ResourceApplyAdagrad için isteğe bağlı öznitelik belirleyiciler. |
Genel özellikler
operasyon
Operation operation
Kamusal işlevler
ResourceApplyAdagrad
ResourceApplyAdagrad( const ::tensorflow::Scope & scope, ::tensorflow::Input var, ::tensorflow::Input accum, ::tensorflow::Input lr, ::tensorflow::Input grad )
ResourceApplyAdagrad
ResourceApplyAdagrad( const ::tensorflow::Scope & scope, ::tensorflow::Input var, ::tensorflow::Input accum, ::tensorflow::Input lr, ::tensorflow::Input grad, const ResourceApplyAdagrad::Attrs & attrs )
operator :: tensorflow :: İşlem
operator::tensorflow::Operation() const
Genel statik işlevler
UpdateSlots
Attrs UpdateSlots( bool x )
KullanımKilitleme
Attrs UseLocking( bool x )