Selu

שיעור הגמר הציבורי סלו

מחשב ליניארי מעריכי בקנה מידה: `scale * alpha * (exp(features) - 1)`

אם < 0, 'סולם * תכונות' אחרת.

לשימוש יחד עם `initializer = tf.variance_scaling_initializer(factor=1.0, mode='FAN_IN')`. לנשירה נכונה, השתמש ב-'tf.contrib.nn.alpha_dropout'.

ראה [רשתות עצביות מנרמלות עצמית](https://arxiv.org/abs/1706.02515)

קבועים

חוּט OP_NAME השם של המבצע הזה, כפי שידוע על ידי מנוע הליבה של TensorFlow

שיטות ציבוריות

פלט <T>
פלט <T>
asOutput ()
מחזירה את הידית הסמלית של הטנזור.
סטטי <T מרחיב TNummer > Selu <T>
ליצור ( היקף היקף, תכונות Operand <T>)
שיטת מפעל ליצירת מחלקה העוטפת פעולת Selu חדשה.

שיטות בירושה

קבועים

מחרוזת סופית סטטית ציבורית OP_NAME

השם של המבצע הזה, כפי שידוע על ידי מנוע הליבה של TensorFlow

ערך קבוע: "Selu"

שיטות ציבוריות

הפעלות ציבוריות של פלט <T> ()

פלט ציבורי <T> asOutput ()

מחזירה את הידית הסמלית של הטנזור.

כניסות לפעולות TensorFlow הן יציאות של פעולת TensorFlow אחרת. שיטה זו משמשת להשגת ידית סמלית המייצגת את חישוב הקלט.

יצירת Selu <T> סטטית ציבורית ( היקף היקף , תכונות Operand <T>)

שיטת מפעל ליצירת מחלקה העוטפת פעולת Selu חדשה.

פרמטרים
תְחוּם ההיקף הנוכחי
החזרות
  • מופע חדש של Selu