AdaDelta

الطبقة العامة AdaDelta

محسن ينفذ خوارزمية Adadelta.

يعد تحسين Adadelta بمثابة طريقة نزول متدرجة عشوائية تعتمد على معدل التعلم التكيفي لكل بُعد لمعالجة عيبين:

  • - التدهور المستمر في معدلات التعلم طوال فترة التدريب
  • الحاجة إلى معدل تعلم عالمي يتم اختياره يدويًا

يعد Adadelta امتدادًا أكثر قوة لـ Adagrad حيث يقوم بتكييف معدلات التعلم بناءً على نافذة متحركة من تحديثات التدرج، بدلاً من تجميع كل التدرجات السابقة. بهذه الطريقة، يستمر Adadelta في التعلم حتى بعد إجراء العديد من التحديثات. بالمقارنة مع Adagrad، في الإصدار الأصلي من Adadelta، لا يتعين عليك تحديد معدل تعلم أولي. في هذا الإصدار، يمكن تعيين معدل التعلم الأولي، كما هو الحال في معظم برامج التحسين الأخرى.

وفقًا للقسم 4.3 ("معدلات التعلم الفعالة")، بالقرب من نهاية أحجام خطوات التدريب تتقارب إلى 1 وهو معدل تعلم مرتفع فعليًا قد يسبب الاختلاف. يحدث هذا فقط قرب نهاية التدريب حيث تكون التدرجات وأحجام الخطوات صغيرة، ويهيمن ثابت إبسيلون في البسط والمقام على التدرجات السابقة وتحديثات المعلمات التي تقارب معدل التعلم إلى 1.

وفقًا للقسم 4.4 ("بيانات الكلام")، حيث تم تدريب شبكة عصبية كبيرة مكونة من 4 طبقات مخفية على مجموعة من البيانات الإنجليزية الأمريكية، تم استخدام ADADELTA مع 100 نسخة متماثلة للشبكة. epsilon المستخدم هو 1e-6 مع rho=0.95 والذي تتقارب بشكل أسرع من ADAGRAD، من خلال البناء التالي: new AdaDelta(graph, 1.0f, 0.95f, 1e-6f);

الثوابت

خيط المجمع
خيط تراكم_تحديث
يطفو EPSILON_DEFAULT
يطفو LEARNING_RATE_DEFAULT
يطفو RHO_DEFAULT

الثوابت الموروثة

المقاولون العامون

AdaDelta (الرسم البياني )
AdaDelta (الرسم البياني ، معدل التعلم العائم)
إنشاء محسن AdaDelta
AdaDelta (الرسم البياني ، معدل التعلم العائم، تعويم رو، تعويم إبسيلون)
إنشاء محسن AdaDelta
AdaDelta (الرسم البياني ، اسم السلسلة، معدل التعلم العائم)
إنشاء محسن AdaDelta
AdaDelta (الرسم البياني ، اسم السلسلة، معدل التعلم العائم، تعويم رو، تعويم إبسيلون)
إنشاء محسن AdaDelta

الأساليب العامة

خيط
getOptimizerName ()
احصل على اسم المحسن.
خيط

الطرق الموروثة

الثوابت

تراكم السلسلة النهائية الثابتة العامة

القيمة الثابتة: "تراكم"

السلسلة النهائية العامة الثابتة ACCUMULATOR_UPDATE

القيمة الثابتة: "accum_update"

التعويم النهائي الثابت العام EPSILON_DEFAULT

القيمة الثابتة: 1.0E-7

التعويم النهائي الثابت العام LEARNING_RATE_DEFAULT

القيمة الثابتة: 0.001

التعويم النهائي الثابت العام RHO_DEFAULT

القيمة الثابتة: 0.95

المقاولون العامون

AdaDelta العامة (الرسم البياني )

AdaDelta العامة (الرسم البياني ، معدل التعلم العائم)

إنشاء محسن AdaDelta

حدود
رسم بياني الرسم البياني TensorFlow
معدل التعليم معدل التعلم

AdaDelta العامة (الرسم البياني ، تعويم LearningRate، تعويم رو، تعويم إبسيلون)

إنشاء محسن AdaDelta

حدود
رسم بياني الرسم البياني TensorFlow
معدل التعليم معدل التعلم
rho عامل الاضمحلال
إبسيلون إبسيلون ثابت يستخدم لتكييف تحديث التخرج بشكل أفضل

AdaDelta العامة (الرسم البياني ، اسم السلسلة، معدل التعلم العائم)

إنشاء محسن AdaDelta

حدود
رسم بياني الرسم البياني TensorFlow
اسم اسم المُحسِّن هذا (الافتراضي هو "Adadelta")
معدل التعليم معدل التعلم

AdaDelta العامة (الرسم البياني ، اسم السلسلة، معدل التعلم العائم، تعويم رو، تعويم إبسيلون)

إنشاء محسن AdaDelta

حدود
رسم بياني الرسم البياني TensorFlow
اسم اسم المُحسِّن هذا (الافتراضي هو "Adadelta")
معدل التعليم معدل التعلم
rho عامل الاضمحلال
إبسيلون إبسيلون ثابت يستخدم لتكييف تحديث التخرج بشكل أفضل

الأساليب العامة

سلسلة getOptimizerName () العامة

احصل على اسم المحسن.

عائدات
  • اسم المحسن.

سلسلة عامة إلى سلسلة ()