ورودی های به روز رسانی پراکنده در '*var' و '*accum' طبق الگوریتم FOBOS.
یعنی برای ردیفهایی که برای آنها grad داریم، var و accum را به صورت زیر بهروزرسانی میکنیم: $$accum += grad grad$$$$prox_v = var$$$$prox_v -= lr grad (1 / sqrt(accum))$$$$var = sign(prox_v)/(1+lrl2) max{|prox_v|-lrl1,0}$$
کلاس های تو در تو
کلاس | SparseApplyProximalAdagrad.Options | ویژگی های اختیاری برای SparseApplyProximalAdagrad |
ثابت ها
رشته | OP_NAME | نام این عملیات، همانطور که توسط موتور هسته TensorFlow شناخته می شود |
روش های عمومی
خروجی <T> | asOutput () دسته نمادین تانسور را برمی گرداند. |
static <T TType > SparseApplyProximalAdagrad <T> را گسترش می دهد | |
خروجی <T> | بیرون () همان "var". |
Static SparseApplyProximalAdagrad.Options | useLocking (قفل کردن استفاده بولی) |
روش های ارثی
ثابت ها
رشته نهایی ثابت عمومی OP_NAME
نام این عملیات، همانطور که توسط موتور هسته TensorFlow شناخته می شود
روش های عمومی
خروجی عمومی <T> asOutput ()
دسته نمادین تانسور را برمی گرداند.
ورودی های عملیات TensorFlow خروجی های عملیات تنسورفلو دیگر هستند. این روش برای به دست آوردن یک دسته نمادین که نشان دهنده محاسبه ورودی است استفاده می شود.
عمومی استاتیک SparseApplyProximalAdagrad <T> ایجاد ( دامنه دامنه ، عملوند <T> var، عملوند <T> accum، عملوند <T> lr، عملوند <T> l1، عملوند <T> l2، عملوند <T> grad، عملوند <؟ TNumber را گسترش می دهد > شاخص ها، گزینه ها ... گزینه ها)
روش کارخانه برای ایجاد کلاسی که یک عملیات جدید SparseApplyProximalAdagrad را بسته بندی می کند.
مولفه های
محدوده | محدوده فعلی |
---|---|
var | باید از یک متغیر () باشد. |
تجمع | باید از یک متغیر () باشد. |
lr | میزان یادگیری باید اسکالر باشد. |
l1 | تنظیم L1. باید اسکالر باشد. |
l2 | تنظیم L2. باید اسکالر باشد. |
درجه | گرادیان. |
شاخص ها | بردار شاخص ها در بعد اول var و accum. |
گزینه ها | مقادیر ویژگی های اختیاری را حمل می کند |
برمی گرداند
- یک نمونه جدید از SparseApplyProximalAdagrad
عمومی استاتیک SparseApplyProximalAdagrad.Options useLocking (useLocking بولی)
مولفه های
استفاده از قفل کردن | اگر درست باشد، بهروزرسانی تانسورهای var و accum توسط یک قفل محافظت میشود. در غیر این صورت رفتار تعریف نشده است، اما ممکن است اختلاف کمتری از خود نشان دهد. |
---|