Relu

שיעור הגמר הציבורי Relu

מחשב ליניארי מתוקשר: 'max(features, 0)'.

ראה: https://en.wikipedia.org/wiki/Rectifier_(neural_networks) שימוש לדוגמה: >>> tf.nn.relu([-2., 0., -0., 3.]).numpy() array([ 0., 0., -0., 3.], dtype=float32)

קבועים

חוּט OP_NAME השם של המבצע הזה, כפי שידוע על ידי מנוע הליבה של TensorFlow

שיטות ציבוריות

פלט <T>
פלט <T>
asOutput ()
מחזירה את הידית הסמלית של הטנזור.
סטטי <T מרחיב את TType > Relu <T>
ליצור ( היקף היקף, תכונות Operand <T>)
שיטת מפעל ליצירת מחלקה העוטפת פעולת Relu חדשה.

שיטות בירושה

קבועים

מחרוזת סופית סטטית ציבורית OP_NAME

השם של המבצע הזה, כפי שידוע על ידי מנוע הליבה של TensorFlow

ערך קבוע: "Relu"

שיטות ציבוריות

הפעלות ציבוריות של פלט <T> ()

פלט ציבורי <T> asOutput ()

מחזירה את הידית הסמלית של הטנזור.

כניסות לפעולות TensorFlow הן יציאות של פעולת TensorFlow אחרת. שיטה זו משמשת להשגת ידית סמלית המייצגת את חישוב הקלט.

public static Relu <T> create ( היקף היקף , תכונות Operand <T>)

שיטת מפעל ליצירת מחלקה העוטפת פעולת Relu חדשה.

פרמטרים
תְחוּם ההיקף הנוכחי
החזרות
  • מופע חדש של Relu