هشدار: این API منسوخ شده است و پس از پایدار شدن جایگزینی، در نسخه بعدی TensorFlow حذف خواهد شد.

ApplyAdagradV2

عمومی ApplyAdagradV2 کلاس نهایی

"*var" را طبق طرح adagrad به روز کنید.

accum += grad * grad var -= lr * grad * (1 / sqrt(accum))

کلاس های تو در تو

کلاس ApplyAdagradV2.Options ویژگی اختیاری برای ApplyAdagradV2

روش های عمومی

خروجی <T>
asOutput ()
دسته نمادین یک تانسور را برمی‌گرداند.
شخص <T> ApplyAdagradV2 <T>
ایجاد ( محدوده دامنه، عملوند <T> VAR، عملوند <T> accum، عملوند <T> LR، عملوند <T> اپسیلون، عملوند <T> گراد، گزینه ها ... گزینه ها)
روش کارخانه برای ایجاد کلاسی که یک عملیات ApplyAdagradV2 جدید را بسته بندی می کند.
خروجی <T>
خارج ()
همان "var".
شخص ApplyAdagradV2.Options
updateSlots (بولی updateSlots)
شخص ApplyAdagradV2.Options
useLocking (بولی useLocking)

روش های ارثی

روش های عمومی

عمومی خروجی <T> asOutput ()

دسته نمادین یک تانسور را برمی‌گرداند.

ورودی های عملیات TensorFlow خروجی های عملیات تنسورفلو دیگر هستند. این روش برای به دست آوردن یک دسته نمادین که نشان دهنده محاسبه ورودی است استفاده می شود.

عمومی استاتیک ApplyAdagradV2 <T> ایجاد ( محدوده دامنه، عملوند <T> VAR، عملوند <T> accum، عملوند <T> LR، عملوند <T> اپسیلون، عملوند <T> گراد، گزینه ها ... گزینه ها)

روش کارخانه برای ایجاد کلاسی که یک عملیات ApplyAdagradV2 جدید را بسته بندی می کند.

مولفه های
محدوده محدوده فعلی
var باید از یک متغیر ().
تجمع باید از یک متغیر ().
lr ضریب پوسته پوسته شدن باید اسکالر باشد.
اپسیلون عامل ثابت. باید اسکالر باشد.
درجه گرادیان.
گزینه ها مقادیر ویژگی های اختیاری را حمل می کند
برمی گرداند
  • یک نمونه جدید از ApplyAdagradV2

عمومی خروجی <T> خارج ()

همان "var".

عمومی استاتیک ApplyAdagradV2.Options updateSlots (بولی updateSlots)

عمومی استاتیک ApplyAdagradV2.Options useLocking (بولی useLocking)

مولفه های
استفاده از قفل کردن اگر «درست» باشد، به‌روزرسانی تانسور var و accum توسط یک قفل محافظت می‌شود. در غیر این صورت رفتار تعریف نشده است، اما ممکن است اختلاف کمتری از خود نشان دهد.