Relu

الطبقة النهائية العامة Relu

يحسب خطيًا مصححًا: `max(features, 0)`.

راجع: https://en.wikipedia.org/wiki/Rectifier_(neural_networks) مثال للاستخدام: >>> tf.nn.relu([-2., 0., -0., 3.]).numpy() المصفوفة([0.، 0.، -0.، 3.]، dtype=float32)

الثوابت

خيط OP_NAME اسم هذه العملية كما هو معروف بواسطة محرك TensorFlow الأساسي

الأساليب العامة

الإخراج <T>
الإخراج <T>
كإخراج ()
إرجاع المقبض الرمزي للموتر.
ثابت <T يمتد TType > Relu <T>
إنشاء (نطاق النطاق ، ميزات المعامل <T>)
طريقة المصنع لإنشاء فئة تغلف عملية Relu جديدة.

الطرق الموروثة

الثوابت

السلسلة النهائية الثابتة العامة OP_NAME

اسم هذه العملية كما هو معروف بواسطة محرك TensorFlow الأساسي

القيمة الثابتة: "Relu"

الأساليب العامة

الإخراج العام <T> كإخراج ()

إرجاع المقبض الرمزي للموتر.

المدخلات إلى عمليات TensorFlow هي مخرجات عملية TensorFlow أخرى. يتم استخدام هذه الطريقة للحصول على مقبض رمزي يمثل حساب الإدخال.

إنشاء Relu <T> ثابت عام (نطاق النطاق وميزات المعامل <T>)

طريقة المصنع لإنشاء فئة تغلف عملية Relu جديدة.

حدود
نِطَاق النطاق الحالي
عائدات
  • مثيل جديد من Relu