ResourceApplyAdagrad

الفئة النهائية العامة ResourceApplyAdagrad

قم بتحديث '*var' وفقًا لمخطط adagrad.

تراكم += grad * grad var -= lr * grad * (1 / (sqrt(accum) + epsilon))

فئات متداخلة

فصل ResourceApplyAdagrad.Options السمات الاختيارية لـ ResourceApplyAdagrad

الثوابت

خيط OP_NAME اسم هذه العملية كما هو معروف بواسطة محرك TensorFlow الأساسي

الأساليب العامة

ثابت <T يمتد TType > ResourceApplyAdagrad
إنشاء ( نطاق النطاق ، المعامل <؟> فار ، المعامل <؟> تراكم، المعامل <T> lr، المعامل <T> إبسيلون، المعامل <T> غراد، خيارات... خيارات)
طريقة المصنع لإنشاء فئة تلتف حول عملية ResourceApplyAdagrad جديدة.
ResourceApplyAdagrad.Options ثابت
فتحات التحديث (فتحات التحديث المنطقية)
ResourceApplyAdagrad.Options ثابت
useLocking (استخدام منطقي منطقي)

الطرق الموروثة

الثوابت

السلسلة النهائية الثابتة العامة OP_NAME

اسم هذه العملية كما هو معروف بواسطة محرك TensorFlow الأساسي

القيمة الثابتة: "ResourceApplyAdagradV2"

الأساليب العامة

إنشاء ResourceApplyAdagrad ثابت عام ( نطاق النطاق، المعامل <؟> var، المعامل <؟> تراكم، المعامل <T> lr، المعامل <T> epsilon، المعامل <T> grad، خيارات... خيارات)

طريقة المصنع لإنشاء فئة تلتف حول عملية ResourceApplyAdagrad جديدة.

حدود
نِطَاق النطاق الحالي
فار يجب أن يكون من متغير ().
تراكم يجب أن يكون من متغير ().
lr عامل التحجيم. يجب أن يكون العددية.
إبسيلون عامل ثابت. يجب أن يكون العددية.
خريج التدرج.
خيارات يحمل قيم السمات الاختيارية
عائدات
  • مثيل جديد من ResourceApplyAdagrad

ResourceApplyAdagrad.Options العام الثابت updateSlots (فتحات التحديث المنطقية)

ResourceApplyAdagrad.Options العام الثابت useLocking (المنطقي useLocking)

حدود
useLocking إذا كان "صحيحًا"، فسيتم حماية تحديث موترتي var وaccum بواسطة قفل؛ وإلا فإن السلوك غير محدد، ولكنه قد يحمل قدرًا أقل من الخلاف.