طبق طرح adagrad ورودی های مربوطه را در '*var' و '*accum' به روز کنید.
یعنی برای ردیف هایی که grad داریم، var و accum را به صورت زیر به روز می کنیم: $$accum += grad * grad$$$$var -= lr * grad * (1 / sqrt(accum))$$
کلاس های تو در تو
کلاس | SparseApplyAdagradV2.Options | ویژگی های اختیاری برای SparseApplyAdagradV2 |
روش های عمومی
خروجی <T> | asOutput () دسته نمادین یک تانسور را برمیگرداند. |
static <T, U extends Number> SparseApplyAdagradV2 <T> | ایجاد ( دامنه دامنه، عملوند <T> var، عملوند <T> accum ، عملوند <T> lr، عملوند <T> اپسیلون، عملوند <T> grad، شاخصهای عملوند <U>، گزینهها... گزینهها) روش کارخانه برای ایجاد کلاسی که یک عملیات جدید SparseApplyAdagradV2 را بسته بندی می کند. |
خروجی <T> | بیرون () همان "var". |
Static SparseApplyAdagradV2.Options | UpdateSlots (Bolean updateSlots) |
Static SparseApplyAdagradV2.Options | useLocking (useLocking بولی) |
روش های ارثی
روش های عمومی
خروجی عمومی <T> asOutput ()
دسته نمادین یک تانسور را برمیگرداند.
ورودی های عملیات TensorFlow خروجی های عملیات تنسورفلو دیگر هستند. این روش برای به دست آوردن یک دسته نمادین که نشان دهنده محاسبه ورودی است استفاده می شود.
عمومی استاتیک SparseApplyAdagradV2 <T> ایجاد ( دامنه دامنه، عملوند <T> var، عملوند <T> accum ، عملوند <T> lr، عملوند <T> اپسیلون، عملوند <T> grad، شاخصهای عملوند <U>، گزینهها.. . گزینه ها)
روش کارخانه برای ایجاد کلاسی که یک عملیات جدید SparseApplyAdagradV2 را بسته بندی می کند.
مولفه های
محدوده | محدوده فعلی |
---|---|
var | باید از یک متغیر (). |
تجمع | باید از یک متغیر (). |
lr | میزان یادگیری باید اسکالر باشد. |
اپسیلون | عامل ثابت. باید اسکالر باشد. |
درجه | گرادیان. |
شاخص ها | بردار شاخص ها در بعد اول var و accum. |
گزینه ها | مقادیر ویژگی های اختیاری را حمل می کند |
برمی گرداند
- یک نمونه جدید از SparseApplyAdagradV2
عمومی استاتیک SparseApplyAdagradV2 . Options useLocking (useLocking بولی)
مولفه های
استفاده از قفل کردن | اگر «درست» باشد، بهروزرسانی تانسور var و accum توسط یک قفل محافظت میشود. در غیر این صورت رفتار تعریف نشده است، اما ممکن است اختلاف کمتری از خود نشان دهد. |
---|