RMSProp

الطبقة العامة RMSProp

محسن يقوم بتنفيذ خوارزمية RMSProp.

جوهر RMSprop هو:

  • الحفاظ على المتوسط ​​المتحرك (المخفض) لمربع التدرجات
  • اقسم التدرج على جذر هذا المتوسط

يستخدم تطبيق RMSprop زخمًا عاديًا، وليس زخم نيستيروف.

بالإضافة إلى ذلك، يحتفظ الإصدار المركزي بمتوسط ​​متحرك للتدرجات، ويستخدم هذا المتوسط ​​لتقدير التباين.

الثوابت

منطقية CENTERED_DEFAULT
يطفو DECAY_DEFAULT
يطفو EPSILON_DEFAULT
يطفو LEARNING_RATE_DEFAULT
خيط ملغ
خيط دَفعَة
يطفو MOMENTUM_DEFAULT
خيط RMS

الثوابت الموروثة

org.tensorflow.framework.optimizers.Optimizer
خيط VARIABLE_V2

المقاولون العامون

RMSProp (الرسم البياني )
يقوم بإنشاء RMSPRrop Optimizer
RMSProp (الرسم البياني ، معدل التعلم العائم)
يقوم بإنشاء RMSPRrop Optimizer
RMSProp (الرسم البياني ، تعويم معدل التعلم، تسوس التعويم، زخم التعويم، تعويم إبسيلون، توسيط منطقي)
يقوم بإنشاء RMSPRrop Optimizer
RMSProp (الرسم البياني ، اسم السلسلة، معدل التعلم العائم)
يقوم بإنشاء RMSPRrop Optimizer
RMSProp (رسم بياني ، اسم السلسلة، معدل التعلم العائم، اضمحلال العائم، زخم التعويم، تعويم إبسيلون، توسيط منطقي)
يقوم بإنشاء RMSPRrop Optimizer

الأساليب العامة

خيط
getOptimizerName ()
احصل على اسم المحسن.
خيط

الطرق الموروثة

org.tensorflow.framework.optimizers.Optimizer
مرجع سابق
ApplyGradients (القائمة< GradAndVar <؟ تمتد TType >> gradsAndVars، اسم السلسلة)
يطبق التدرجات على المتغيرات
<T يمتد TType > القائمة< GradAndVar <?>>
حساب التدرجات (خسارة المعامل <?>)
يحسب التدرجات على أساس معامل الخسارة.
سلسلة ثابتة
createName ( الإخراج <؟ يمتد TType > متغير، String SlotName)
ينشئ اسمًا من خلال الجمع بين اسم المتغير واسم الفتحة
سلسلة مجردة
getOptimizerName ()
احصل على اسم المحسن.
<T يمتد TType > اختياري< متغير <T>>
getSlot ( الإخراج <T> فار، اسم فتحة السلسلة)
يحصل على الفتحة المرتبطة بالمتغير المحدد واسم الفتحة.
العمليات النهائية
جيتف ()
الحصول على مثيل Ops الخاص بـ Optimizer
مرجع سابق
تقليل (خسارة المعامل <?>)
تقليل الخسارة عن طريق تحديث المتغيرات
مرجع سابق
تقليل (خسارة المعامل <?>، اسم السلسلة)
تقليل الخسارة عن طريق تحديث المتغيرات
منطقية
يساوي (كائن arg0)
الدرجة النهائية<?>
الحصول على كلاس ()
كثافة العمليات
رمز التجزئة ()
الفراغ النهائي
إعلام ()
الفراغ النهائي
إعلام الكل ()
خيط
إلى سلسلة ()
الفراغ النهائي
انتظر (طويل arg0، int arg1)
الفراغ النهائي
انتظر (طويل arg0)
الفراغ النهائي
انتظر ()

الثوابت

المنطق المنطقي النهائي العام الثابت CENTERED_DEFAULT

القيمة الثابتة: خطأ

التعويم النهائي الثابت العام DECAY_DEFAULT

القيمة الثابتة: 0.9

التعويم النهائي الثابت العام EPSILON_DEFAULT

القيمة الثابتة: 1.0E-10

التعويم النهائي الثابت العام LEARNING_RATE_DEFAULT

القيمة الثابتة: 0.001

السلسلة النهائية العامة الثابتة MG

القيمة الثابتة: "ملغ"

السلسلة النهائية الثابتة العامة MOMENTUM

القيمة الثابتة: "الزخم"

التعويم النهائي الثابت العام MOMENTUM_DEFAULT

القيمة الثابتة: 0.0

السلسلة النهائية الثابتة العامة RMS

القيمة الثابتة: "rms"

المقاولون العامون

RMSProp العام (الرسم البياني )

يقوم بإنشاء RMSPRrop Optimizer

حدود
رسم بياني الرسم البياني TensorFlow

RMSProp العام (الرسم البياني ، معدل التعلم العائم)

يقوم بإنشاء RMSPRrop Optimizer

حدود
رسم بياني الرسم البياني TensorFlow
معدل التعليم معدل التعلم

RMSProp العام (الرسم البياني ، تعويم معدل التعلم، تسوس التعويم، زخم التعويم، تعويم إبسيلون، توسيط منطقي)

يقوم بإنشاء RMSPRrop Optimizer

حدود
رسم بياني الرسم البياني TensorFlow
معدل التعليم معدل التعلم
فساد عامل الخصم للتاريخ/التدرج القادم. الافتراضي هو 0.9.
دَفعَة عامل التسارع، الافتراضي هو 0.
إبسيلون ثابت صغير للاستقرار العددي
تركزت إذا كان true ، يتم تسوية التدرجات من خلال التباين المقدر للتدرج؛ إذا false ، من خلال اللحظة الثانية غير المتمركزة. قد يساعد تعيين هذا على true في التدريب، ولكنه أكثر تكلفة قليلاً من حيث الحساب والذاكرة. الافتراضيات false .

RMSProp العام (الرسم البياني ، اسم السلسلة، معدل التعلم العائم)

يقوم بإنشاء RMSPRrop Optimizer

حدود
رسم بياني الرسم البياني TensorFlow
اسم اسم هذا المحسن. الإعدادات الافتراضية هي "RMSProp".
معدل التعليم معدل التعلم

RMSProp العام (الرسم البياني ، اسم السلسلة، معدل التعلم العائم، تسوس التعويم، زخم التعويم، تعويم إبسيلون، توسيط منطقي)

يقوم بإنشاء RMSPRrop Optimizer

حدود
رسم بياني الرسم البياني TensorFlow
اسم اسم هذا المحسن. الإعدادات الافتراضية هي "RMSProp".
معدل التعليم معدل التعلم
فساد عامل الخصم للتاريخ/التدرج القادم. الافتراضي هو 0.9.
دَفعَة عامل التسارع، الافتراضي هو 0.
إبسيلون ثابت صغير للاستقرار العددي
تركزت إذا كان true ، يتم تسوية التدرجات من خلال التباين المقدر للتدرج؛ إذا false ، من خلال اللحظة الثانية غير المتمركزة. قد يساعد تعيين هذا على true في التدريب، ولكنه أكثر تكلفة قليلاً من حيث الحساب والذاكرة. الافتراضيات false .

الأساليب العامة

سلسلة getOptimizerName () العامة

احصل على اسم المحسن.

عائدات
  • اسم المحسن.

سلسلة عامة إلى سلسلة ()