tensorflow :: ops :: ResourceApplyAdamWithAmsgrad
#include <training_ops.h>
"* var" را با توجه به الگوریتم Adam به روز کنید.
خلاصه
$$lr_t := {learning_rate} * {1 - beta_2^t} / (1 - beta_1^t)$$ $$m_t := beta_1 * m_{t-1} + (1 - beta_1) * g$$ $$v_t := beta_2 * v_{t-1} + (1 - beta_2) * g * g$$ $$vhat_t := max{vhat_{t-1}, v_t}$$ $$variable := variable - lr_t * m_t / ({vhat_t} + )$$
استدلال ها:
- دامنه: یک شی Sc Scope
- var: باید از یک متغیر () باشد.
- m: باید از یک متغیر باشد ().
- v: باید از یک متغیر () باشد.
- vhat: باید از یک متغیر () باشد.
- beta1_power: باید اسکالر باشد.
- beta2_power: باید اسکالر باشد.
- lr: عامل مقیاس گذاری. باید اسکالر باشد.
- beta1: فاکتور حرکت. باید اسکالر باشد.
- beta2: فاکتور حرکت. باید اسکالر باشد.
- epsilon: اصطلاح ریج. باید اسکالر باشد.
- grad: شیب.
ویژگی های اختیاری (به Attrs
مراجعه کنید):
- use_locking: اگر
True
، به روزرسانی تنتورهای var ، m و v توسط قفل محافظت می شود. در غیر این صورت رفتار تعریف نشده است ، اما ممکن است مشاجره کمتری از خود نشان دهد.
بازده:
-
Operation
ایجاد شده
سازندگان و ویرانگران | |
---|---|
ResourceApplyAdamWithAmsgrad (const :: tensorflow::Scope & scope, :: tensorflow::Input var, :: tensorflow::Input m, :: tensorflow::Input v, :: tensorflow::Input vhat, :: tensorflow::Input beta1_power, :: tensorflow::Input beta2_power, :: tensorflow::Input lr, :: tensorflow::Input beta1, :: tensorflow::Input beta2, :: tensorflow::Input epsilon, :: tensorflow::Input grad) | |
ResourceApplyAdamWithAmsgrad (const :: tensorflow::Scope & scope, :: tensorflow::Input var, :: tensorflow::Input m, :: tensorflow::Input v, :: tensorflow::Input vhat, :: tensorflow::Input beta1_power, :: tensorflow::Input beta2_power, :: tensorflow::Input lr, :: tensorflow::Input beta1, :: tensorflow::Input beta2, :: tensorflow::Input epsilon, :: tensorflow::Input grad, const ResourceApplyAdamWithAmsgrad::Attrs & attrs) |
صفات عمومی | |
---|---|
operation |
کارکردهای عمومی | |
---|---|
operator::tensorflow::Operation () const |
توابع استاتیک عمومی | |
---|---|
UseLocking (bool x) |
سازه ها | |
---|---|
tensorflow :: ops :: ResourceApplyAdamWithAmsgrad :: Attrs | تنظیم کنندگان ویژگی های اختیاری برای ResourceApplyAdamWithAmsgrad . |
صفات عمومی
عمل
Operation operation
کارکردهای عمومی
ResourceApplyAdamWithAmsgrad
ResourceApplyAdamWithAmsgrad( const ::tensorflow::Scope & scope, ::tensorflow::Input var, ::tensorflow::Input m, ::tensorflow::Input v, ::tensorflow::Input vhat, ::tensorflow::Input beta1_power, ::tensorflow::Input beta2_power, ::tensorflow::Input lr, ::tensorflow::Input beta1, ::tensorflow::Input beta2, ::tensorflow::Input epsilon, ::tensorflow::Input grad )
ResourceApplyAdamWithAmsgrad
ResourceApplyAdamWithAmsgrad( const ::tensorflow::Scope & scope, ::tensorflow::Input var, ::tensorflow::Input m, ::tensorflow::Input v, ::tensorflow::Input vhat, ::tensorflow::Input beta1_power, ::tensorflow::Input beta2_power, ::tensorflow::Input lr, ::tensorflow::Input beta1, ::tensorflow::Input beta2, ::tensorflow::Input epsilon, ::tensorflow::Input grad, const ResourceApplyAdamWithAmsgrad::Attrs & attrs )
عملگر :: tensorflow :: عملیات
operator::tensorflow::Operation() const
توابع استاتیک عمومی
استفاده از قفل کردن
Attrs UseLocking( bool x )
جز در مواردی که غیر از این ذکر شده باشد،محتوای این صفحه تحت مجوز Creative Commons Attribution 4.0 License است. نمونه کدها نیز دارای مجوز Apache 2.0 License است. برای اطلاع از جزئیات، به خطمشیهای سایت Google Developers مراجعه کنید. جاوا علامت تجاری ثبتشده Oracle و/یا شرکتهای وابسته به آن است.
تاریخ آخرین بهروزرسانی 2020-04-20 بهوقت ساعت هماهنگ جهانی.