AdaGradDA

الطبقة العامة AdaGradDA

مُحسِّن يطبق خوارزمية Adagrad Dual-Averaging.

يعتني هذا المُحسِّن بتنظيم الميزات غير المرئية في دفعة صغيرة عن طريق تحديثها عند رؤيتها بقاعدة تحديث نموذج مغلق تعادل تحديثها في كل دفعة صغيرة.

يتم استخدام AdagradDA عادةً عندما تكون هناك حاجة إلى تناثر كبير في النموذج المُدرب. يضمن هذا المحسن التناثر للنماذج الخطية فقط. كن حذرًا عند استخدام AdagradDA للشبكات العميقة حيث سيتطلب الأمر تهيئة دقيقة لمراكم التدرج حتى يتم تدريبه.

الثوابت

خيط المجمع
يطفو INITIAL_ACCUMULATOR_DEFAULT
يطفو L1_STRENGTH_DEFAULT
يطفو L2_STRENGTH_DEFAULT
يطفو LEARNING_RATE_DEFAULT
خيط SQUARED_ACCUMULATOR

الثوابت الموروثة

المقاولون العامون

AdaGradDA (الرسم البياني )
يقوم بإنشاء محسن AdaGradDA
AdaGradDA (الرسم البياني ، معدل التعلم العائم)
يقوم بإنشاء محسن AdaGradDA
AdaGradDA (الرسم البياني ، تعويم معدل التعلم، تعويم الأولي قيمة التراكم، تعويم l1 القوة، تعويم l2 القوة)
يقوم بإنشاء محسن AdaGradDA
AdaGradDA (الرسم البياني ، اسم السلسلة، معدل التعلم العائم)
يقوم بإنشاء محسن AdaGradDA
AdaGradDA (رسم بياني ، اسم السلسلة، معدل التعلم العائم، قيمة التراكم الأولية، تعويم l1Strength، تعويم l2Strength)
يقوم بإنشاء محسن AdaGradDA

الأساليب العامة

خيط
getOptimizerName ()
احصل على اسم المحسن.
خيط

الطرق الموروثة

الثوابت

تراكم السلسلة النهائية الثابتة العامة

القيمة الثابتة: "gradient_accumulator"

التعويم النهائي الثابت العام INITIAL_ACCUMULATOR_DEFAULT

القيمة الثابتة: 0.1

التعويم النهائي الثابت العام L1_STRENGTH_DEFAULT

القيمة الثابتة: 0.0

التعويم النهائي الثابت العام L2_STRENGTH_DEFAULT

القيمة الثابتة: 0.0

التعويم النهائي الثابت العام LEARNING_RATE_DEFAULT

القيمة الثابتة: 0.001

السلسلة النهائية العامة الثابتة SQUARED_ACCUMULATOR

القيمة الثابتة: "gradient_squared_accumulator"

المقاولون العامون

AdaGradDA العام (الرسم البياني )

يقوم بإنشاء محسن AdaGradDA

حدود
رسم بياني الرسم البياني TensorFlow

AdaGradDA العام (الرسم البياني ، معدل التعلم العائم)

يقوم بإنشاء محسن AdaGradDA

حدود
رسم بياني الرسم البياني TensorFlow
معدل التعليم معدل التعلم

AdaGradDA العام (الرسم البياني ، تعويم معدل التعلم، تعويم الأولي قيمة التراكم، تعويم l1 القوة، تعويم l2 القوة)

يقوم بإنشاء محسن AdaGradDA

حدود
رسم بياني الرسم البياني TensorFlow
معدل التعليم معدل التعلم
initialAccumulatorValue يجب أن تكون القيمة المبدئية للمراكم أكبر من الصفر.
l1 القوة يجب أن تكون قوة التنظيم l1 أكبر من أو تساوي الصفر.
l2 القوة يجب أن تكون قوة التنظيم l2 أكبر من أو تساوي الصفر.
رميات
غير الشرعيين استثناء حجة إذا لم تكن القيمة الأولية للتراكم أكبر من الصفر، أو كانت l1Strength أو l2Strength أقل من الصفر

AdaGradDA العام (الرسم البياني ، اسم السلسلة، معدل التعلم العائم)

يقوم بإنشاء محسن AdaGradDA

حدود
رسم بياني الرسم البياني TensorFlow
اسم اسم المُحسِّن هذا (الافتراضي هو "adagrad-da")
معدل التعليم معدل التعلم

AdaGradDA العام (الرسم البياني ، اسم السلسلة، معدل التعلم العائم، قيمة التراكم الأولية، تعويم l1Strength، تعويم l2Strength)

يقوم بإنشاء محسن AdaGradDA

حدود
رسم بياني الرسم البياني TensorFlow
اسم اسم المُحسِّن هذا (الافتراضي هو "adagrad-da")
معدل التعليم معدل التعلم
initialAccumulatorValue يجب أن تكون القيمة المبدئية للمراكم موجبة
l1 القوة يجب أن تكون قوة التنظيم l1 أكبر من أو تساوي الصفر.
l2 القوة يجب أن تكون قوة التنظيم l2 أكبر من أو تساوي الصفر.
رميات
غير الشرعيين استثناء حجة إذا كانت القيمة الأولية للتراكم ليست أكبر من الصفر، أو * l1Strength أو l2Strength أقل من الصفر

الأساليب العامة

سلسلة getOptimizerName () العامة

احصل على اسم المحسن.

عائدات
  • اسم المحسن.

سلسلة عامة إلى سلسلة ()