"*var" را طبق طرح adagrad به روز کنید.
accum += grad * grad var -= lr * grad * (1 / sqrt(accum))
کلاس های تو در تو
کلاس | ApplyAdagradV2.Options | ویژگی اختیاری برای ApplyAdagradV2 |
روش های عمومی
خروجی <T> | asOutput () دسته نمادین یک تانسور را برمیگرداند. |
شخص <T> ApplyAdagradV2 <T> | |
خروجی <T> | خارج () همان "var". |
شخص ApplyAdagradV2.Options | updateSlots (بولی updateSlots) |
شخص ApplyAdagradV2.Options | useLocking (بولی useLocking) |
روش های ارثی
روش های عمومی
عمومی خروجی <T> asOutput ()
دسته نمادین یک تانسور را برمیگرداند.
ورودی های عملیات TensorFlow خروجی های عملیات تنسورفلو دیگر هستند. این روش برای به دست آوردن یک دسته نمادین که نشان دهنده محاسبه ورودی است استفاده می شود.
عمومی استاتیک ApplyAdagradV2 <T> ایجاد ( محدوده دامنه، عملوند <T> VAR، عملوند <T> accum، عملوند <T> LR، عملوند <T> اپسیلون، عملوند <T> گراد، گزینه ها ... گزینه ها)
روش کارخانه برای ایجاد کلاسی که یک عملیات ApplyAdagradV2 جدید را بسته بندی می کند.
مولفه های
محدوده | محدوده فعلی |
---|---|
var | باید از یک متغیر (). |
تجمع | باید از یک متغیر (). |
lr | ضریب پوسته پوسته شدن باید اسکالر باشد. |
اپسیلون | عامل ثابت. باید اسکالر باشد. |
درجه | گرادیان. |
گزینه ها | مقادیر ویژگی های اختیاری را حمل می کند |
برمی گرداند
- یک نمونه جدید از ApplyAdagradV2
عمومی استاتیک ApplyAdagradV2.Options useLocking (بولی useLocking)
مولفه های
استفاده از قفل کردن | اگر «درست» باشد، بهروزرسانی تانسور var و accum توسط یک قفل محافظت میشود. در غیر این صورت رفتار تعریف نشده است، اما ممکن است اختلاف کمتری از خود نشان دهد. |
---|