قم بتحديث '*var' وفقًا لمخطط adagrad.
تراكم += غراد * غراد var -= lr * غراد * (1 / sqrt(accum))
فئات متداخلة
فصل | ApplyAdagradV2.Options | السمات الاختيارية لـ ApplyAdagradV2 |
الأساليب العامة
الإخراج <T> | كإخراج () إرجاع المقبض الرمزي للموتر. |
ثابت <T> ApplyAdagradV2 <T> | |
الإخراج <T> | خارج () نفس "فار". |
ثابت ApplyAdagradV2.Options | فتحات التحديث (فتحات التحديث المنطقية) |
ثابت ApplyAdagradV2.Options | useLocking (استخدام منطقي منطقي) |
الطرق الموروثة
الأساليب العامة
الإخراج العام <T> كإخراج ()
إرجاع المقبض الرمزي للموتر.
المدخلات إلى عمليات TensorFlow هي مخرجات عملية TensorFlow أخرى. يتم استخدام هذه الطريقة للحصول على مقبض رمزي يمثل حساب الإدخال.
إنشاء تطبيق ApplyAdagradV2 <T> ثابت عام ( نطاق النطاق، المعامل <T> var، المعامل <T> تراكم، المعامل <T> lr، المعامل <T> epsilon، المعامل <T> grad، خيارات... خيارات)
طريقة المصنع لإنشاء فئة تغلف عملية ApplyAdagradV2 جديدة.
حدود
نِطَاق | النطاق الحالي |
---|---|
فار | يجب أن يكون من متغير (). |
تراكم | يجب أن يكون من متغير (). |
lr | عامل التحجيم. يجب أن يكون العددية. |
إبسيلون | عامل ثابت. يجب أن يكون العددية. |
خريج | التدرج. |
خيارات | يحمل قيم السمات الاختيارية |
عائدات
- مثيل جديد لـ ApplyAdagradV2
تطبيق ApplyAdagradV2.Options العام الثابت useLocking (boolean useLocking)
حدود
useLocking | إذا كان "صحيحًا"، فسيتم حماية تحديث موترتي var وaccum بواسطة قفل؛ وإلا فإن السلوك غير محدد، ولكنه قد يحمل قدرًا أقل من الخلاف. |
---|