SparseApplyAdagradDa

الطبقة النهائية العامة SparseApplyAdagradDa

قم بتحديث الإدخالات في '*var' و'*accum' وفقًا لمخطط adagrad القريب.

فئات متداخلة

فصل SparseApplyAdagradDa.Options السمات الاختيارية لـ SparseApplyAdagradDa

الثوابت

خيط OP_NAME اسم هذه العملية كما هو معروف بواسطة محرك TensorFlow الأساسي

الأساليب العامة

الإخراج <T>
كإخراج ()
إرجاع المقبض الرمزي للموتر.
ثابت <T يمتد TType > SparseApplyAdagradDa <T>
إنشاء ( نطاق النطاق ، المعامل <T> var، المعامل <T> gradientAccumulator، المعامل <T> gradientSquaredAccumulator، المعامل <T> grad، المعامل <? يمتد TNumber > المؤشرات، المعامل <T> lr، المعامل <T> l1، المعامل <T> l2، المعامل <TInt64> globalStep، خيارات... خيارات)
طريقة المصنع لإنشاء فئة تغلف عملية SparseApplyAdagradDa جديدة.
الإخراج <T>
خارج ()
نفس "فار".
ثابت SparseApplyAdagradDa.Options
useLocking (استخدام منطقي منطقي)

الطرق الموروثة

الثوابت

السلسلة النهائية الثابتة العامة OP_NAME

اسم هذه العملية كما هو معروف بواسطة محرك TensorFlow الأساسي

القيمة الثابتة: "SparseApplyAdagradDA"

الأساليب العامة

الإخراج العام <T> كإخراج ()

إرجاع المقبض الرمزي للموتر.

المدخلات إلى عمليات TensorFlow هي مخرجات عملية TensorFlow أخرى. يتم استخدام هذه الطريقة للحصول على مقبض رمزي يمثل حساب الإدخال.

إنشاء SparseApplyAdagradDa <T> ثابت عام ( نطاق النطاق، المعامل <T> var، المعامل <T> gradientAccumulator، المعامل <T> gradientSquaredAccumulator، المعامل <T> grad، المعامل <؟ يمتد TNumber > المؤشرات، المعامل <T> lr، المعامل <T> l1، المعامل <T> l2، المعامل < TInt64 > globalStep، خيارات... خيارات)

طريقة المصنع لإنشاء فئة تغلف عملية SparseApplyAdagradDa جديدة.

حدود
نِطَاق النطاق الحالي
فار يجب أن يكون من متغير ().
gradientAccumulator يجب أن يكون من متغير ().
gradientSquaredAccumulator يجب أن يكون من متغير ().
خريج التدرج.
المؤشرات متجه للمؤشرات في البعد الأول من var وaccum.
lr معدل التعليم. يجب أن يكون العددية.
l1 تسوية L1. يجب أن يكون العددية.
l2 تسوية L2. يجب أن يكون العددية.
globalStep رقم خطوة التدريب يجب أن يكون العددية.
خيارات يحمل قيم السمات الاختيارية
عائدات
  • مثيل جديد لـSparseApplyAdagradDa

الإخراج العام <T> خارج ()

نفس "فار".

SparseApplyAdagradDa.Options العام الثابت useLocking (الاستخدام المنطقي)

حدود
useLocking إذا كان True، فسيتم حماية تحديث موترتي var وaccum بواسطة قفل؛ وإلا فإن السلوك غير محدد، ولكنه قد يحمل قدرًا أقل من الخلاف.