ApplyAdagrad

الطبقة النهائية العامة ApplyAdagrad

قم بتحديث '*var' وفقًا لمخطط adagrad.

تراكم += غراد * غراد var -= lr * غراد * (1 / sqrt(accum))

فئات متداخلة

فصل ApplyAdagrad.Options السمات الاختيارية لـ ApplyAdagrad

الثوابت

خيط OP_NAME اسم هذه العملية كما هو معروف بواسطة محرك TensorFlow الأساسي

الأساليب العامة

الإخراج <T>
كإخراج ()
إرجاع المقبض الرمزي للموتر.
ثابت <T يمتد TType > ApplyAdagrad <T>
إنشاء (نطاق النطاق ، المعامل <T> فار، المعامل <T> تراكم، المعامل <T> lr، المعامل <T> غراد، خيارات... الخيارات)
طريقة المصنع لإنشاء فئة تغلف عملية ApplyAdagrad جديدة.
الإخراج <T>
خارج ()
نفس "فار".
تطبيق ApplyAdagrad.Options ثابت
فتحات التحديث (فتحات التحديث المنطقية)
تطبيق ApplyAdagrad.Options ثابت
useLocking (استخدام منطقي منطقي)

الطرق الموروثة

الثوابت

السلسلة النهائية الثابتة العامة OP_NAME

اسم هذه العملية كما هو معروف بواسطة محرك TensorFlow الأساسي

القيمة الثابتة: "ApplyAdagrad"

الأساليب العامة

الإخراج العام <T> كإخراج ()

إرجاع المقبض الرمزي للموتر.

المدخلات إلى عمليات TensorFlow هي مخرجات عملية TensorFlow أخرى. يتم استخدام هذه الطريقة للحصول على مقبض رمزي يمثل حساب الإدخال.

إنشاء ApplyAdagrad <T> ثابت عام ( نطاق النطاق، المعامل <T> var، المعامل <T> تراكم، المعامل <T> lr، المعامل <T> grad، خيارات... خيارات)

طريقة المصنع لإنشاء فئة تغلف عملية ApplyAdagrad جديدة.

حدود
نِطَاق النطاق الحالي
فار يجب أن يكون من متغير ().
تراكم يجب أن يكون من متغير ().
lr عامل التحجيم. يجب أن يكون العددية.
خريج التدرج.
خيارات يحمل قيم السمات الاختيارية
عائدات
  • مثيل جديد من ApplyAdagrad

الإخراج العام <T> خارج ()

نفس "فار".

تطبيق ApplyAdagrad.Options العام الثابت UpdateSlots (فتحات التحديث المنطقية)

ApplyAdagrad.Options العام الثابت useLocking (الاستخدام المنطقي Boolean useLocking)

حدود
useLocking إذا كان "صحيحًا"، فسيتم حماية تحديث موترتي var وaccum بواسطة قفل؛ وإلا فإن السلوك غير محدد، ولكنه قد يحمل قدرًا أقل من الخلاف.