Selu

الطبقة النهائية العامة سيلو

يحسب الخط الأسي المقياس: `scale * alpha * (exp(features) - 1)`

إذا كان <0، قم بقياس الميزات بخلاف ذلك.

ليتم استخدامه مع `initializer = tf.variance_scaling_initializer(factor=1.0, mode='FAN_IN')`. للحصول على التسرب الصحيح، استخدم `tf.contrib.nn.alpha_dropout`.

راجع [الشبكات العصبية ذاتية التطبيع](https://arxiv.org/abs/1706.02515)

الثوابت

خيط OP_NAME اسم هذه العملية كما هو معروف بواسطة محرك TensorFlow الأساسي

الأساليب العامة

الإخراج <T>
الإخراج <T>
كإخراج ()
إرجاع المقبض الرمزي للموتر.
ثابت <T يمتد TNumber > Selu <T>
إنشاء (نطاق النطاق ، ميزات المعامل <T>)
طريقة المصنع لإنشاء فئة تغلف عملية Selu جديدة.

الطرق الموروثة

الثوابت

السلسلة النهائية الثابتة العامة OP_NAME

اسم هذه العملية كما هو معروف بواسطة محرك TensorFlow الأساسي

القيمة الثابتة: "سيلو"

الأساليب العامة

الإخراج العام <T> كإخراج ()

إرجاع المقبض الرمزي للموتر.

المدخلات إلى عمليات TensorFlow هي مخرجات عملية TensorFlow أخرى. يتم استخدام هذه الطريقة للحصول على مقبض رمزي يمثل حساب الإدخال.

إنشاء Selu <T> ثابت عام (نطاق النطاق وميزات المعامل <T>)

طريقة المصنع لإنشاء فئة تغلف عملية Selu جديدة.

حدود
نِطَاق النطاق الحالي
عائدات
  • مثيل جديد من Selu