Adam

الطبقة العامة آدم

محسن ينفذ خوارزمية آدم.

تحسين آدم هو أسلوب نزول متدرج عشوائي يعتمد على التقدير التكيفي للحظات الدرجة الأولى والثانية.

وفقًا لـ Kingma et al., 2014، فإن هذه الطريقة "تتميز بالكفاءة الحسابية، وتتطلب القليل من الذاكرة، ولا تتغير عند إعادة القياس القطري للتدرجات، وهي مناسبة تمامًا للمشكلات الكبيرة من حيث البيانات/المعلمات".

@انظر كينجما وآخرون، 2014، آدم: طريقة للتحسين العشوائي .

الثوابت

يطفو BETA_ONE_DEFAULT
يطفو BETA_TWO_DEFAULT
يطفو EPSILON_DEFAULT
خيط اللحظة الأولى
يطفو LEARNING_RATE_DEFAULT
خيط SECOND_MOMENT

الثوابت الموروثة

المقاولون العامون

آدم (الرسم البياني الرسم البياني )
يخلق محسن آدم
آدم (الرسم البياني ، معدل التعلم العائم)
يخلق محسن آدم
آدم (الرسم البياني ، تعويم معدل التعلم، تعويم betaOne، تعويم betaTwo، تعويم إبسيلون)
يخلق محسن آدم
آدم (الرسم البياني ، اسم السلسلة، معدل التعلم العائم)
يخلق محسن آدم
آدم (الرسم البياني ، اسم السلسلة، معدل التعلم العائم، تعويم betaOne، تعويم betaTwo، تعويم إبسيلون)
يخلق محسن آدم

الأساليب العامة

ثابت <T يمتد TType > Op
createAdamMinimize (نطاق النطاق ، خسارة المعامل <T>، معدل التعلم العائم، تعويم betaOne، تعويم betaTwo، تعويم إبسيلون، خيارات... خيارات)
إنشاء العملية التي تقلل الخسارة
خيط
getOptimizerName ()
احصل على اسم المحسن.
خيط

الطرق الموروثة

الثوابت

التعويم النهائي الثابت العام BETA_ONE_DEFAULT

القيمة الثابتة: 0.9

التعويم النهائي الثابت العام BETA_TWO_DEFAULT

القيمة الثابتة: 0.999

التعويم النهائي الثابت العام EPSILON_DEFAULT

القيمة الثابتة: 1.0E-8

السلسلة النهائية الثابتة العامة FIRST_MOMENT

القيمة الثابتة: "م"

التعويم النهائي الثابت العام LEARNING_RATE_DEFAULT

القيمة الثابتة: 0.001

السلسلة النهائية العامة الثابتة SECOND_MOMENT

القيمة الثابتة: "v"

المقاولون العامون

آدم العام (الرسم البياني )

يخلق محسن آدم

حدود
رسم بياني الرسم البياني TensorFlow

آدم العام (الرسم البياني ، معدل التعلم العائم)

يخلق محسن آدم

حدود
رسم بياني الرسم البياني TensorFlow
معدل التعليم معدل التعلم

آدم العام (الرسم البياني ، تعويم LearningRate، تعويم betaOne، تعويم betaTwo، تعويم إبسيلون)

يخلق محسن آدم

حدود
رسم بياني الرسم البياني TensorFlow
معدل التعليم معدل التعلم
com.betaOne معدل الانحلال الأسي لتقديرات اللحظة الأولى. الافتراضي هو 0.9.
betaTwo معدل الانحلال الأسي لتقديرات اللحظة الثانية. الافتراضي هو 0.999.
إبسيلون ثابت صغير للاستقرار العددي. هذا الإبسيلون هو "قبعة إبسيلون" في ورقة Kingma وBa (في الصيغة قبل القسم 2.1 مباشرة)، وليس إبسيلون في الخوارزمية 1 من الورقة. الإعدادات الافتراضية إلى 1e-8.

آدم العام (الرسم البياني ، اسم السلسلة، معدل التعلم العائم)

يخلق محسن آدم

حدود
رسم بياني الرسم البياني TensorFlow
اسم اسم Optimizer، الافتراضي هو "Adam"
معدل التعليم معدل التعلم

آدم العام (الرسم البياني ، اسم السلسلة، معدل التعلم العائم، تعويم betaOne، تعويم betaTwo، تعويم إبسيلون)

يخلق محسن آدم

حدود
رسم بياني الرسم البياني TensorFlow
اسم اسم Optimizer، الافتراضي هو "Adam"
معدل التعليم معدل التعلم
com.betaOne معدل الانحلال الأسي لتقديرات اللحظة الأولى. الافتراضي هو 0.9.
betaTwo معدل الانحلال الأسي لتقديرات اللحظة الثانية. الافتراضي هو 0.999.
إبسيلون ثابت صغير للاستقرار العددي. هذا الإبسيلون هو "قبعة إبسيلون" في ورقة Kingma وBa (في الصيغة قبل القسم 2.1 مباشرة)، وليس إبسيلون في الخوارزمية 1 من الورقة. الإعدادات الافتراضية إلى 1e-8.

الأساليب العامة

التشغيل الثابت العام createAdamMinimize (نطاق النطاق ، خسارة المعامل <T>، معدل التعلم العائم، تعويم betaOne، تعويم betaTwo، تعويم إبسيلون، خيارات... خيارات)

إنشاء العملية التي تقلل الخسارة

حدود
نِطَاق نطاق TensorFlow
خسارة الخسارة لتقليلها
معدل التعليم معدل التعلم
com.betaOne معدل الانحلال الأسي لتقديرات اللحظة الأولى.
betaTwo معدل الانحلال الأسي لتقديرات اللحظة الثانية.
إبسيلون ثابت صغير للاستقرار العددي. هذا الإبسيلون هو "قبعة إبسيلون" في ورقة Kingma وBa (في الصيغة قبل القسم 2.1 مباشرة)، وليس إبسيلون في الخوارزمية 1 من الورقة.
خيارات سمات المحسن الاختيارية
عائدات
  • العملية التي تقلل من الخسارة
رميات
غير الشرعيين استثناء حجة إذا كان النطاق لا يمثل رسمًا بيانيًا

سلسلة getOptimizerName () العامة

احصل على اسم المحسن.

عائدات
  • اسم المحسن.

سلسلة عامة إلى سلسلة ()