ApplyAdagradDa

כיתת גמר ציבורית הגש/י AdagradDa

עדכן את '*var' בהתאם לתוכנית adgrad הפרוקסימלית.

כיתות מקוננות

מעמד ApplyAdagradDa.Options תכונות אופציונליות עבור ApplyAdagradDa

קבועים

חוּט OP_NAME השם של המבצע הזה, כפי שידוע על ידי מנוע הליבה של TensorFlow

שיטות ציבוריות

פלט <T>
asOutput ()
מחזירה את הידית הסמלית של הטנזור.
סטטי <T מרחיב את TType > ApplyAdagradDa <T>
create ( Scope scope, Operand <T> var, Operand <T> gradientAccumulator, Operand <T> gradientSquaredAccumulator, Operand <T> grad, Operand <T> lr, Operand <T> l1, Operand <T> l2, Operand < TInt64 > globalStep, אפשרויות... אפשרויות)
שיטת מפעל ליצירת מחלקה העוטפת פעולת ApplyAdagradDa חדשה.
פלט <T>
החוצה ()
זהה ל-"var".
סטטי ApplyAdagradDa.Options
useLocking (useLocking בוליאני)

שיטות בירושה

קבועים

מחרוזת סופית סטטית ציבורית OP_NAME

השם של המבצע הזה, כפי שידוע על ידי מנוע הליבה של TensorFlow

ערך קבוע: "ApplyAdagradDA"

שיטות ציבוריות

פלט ציבורי <T> asOutput ()

מחזירה את הידית הסמלית של הטנזור.

כניסות לפעולות TensorFlow הן יציאות של פעולת TensorFlow אחרת. שיטה זו משמשת להשגת ידית סמלית המייצגת את חישוב הקלט.

public static ApplyAdagradDa <T> create ( Scope scope, Operand <T> var, Operand <T> gradientAccumulator, Operand <T> gradientSquaredAccumulator, Operand <T> grad, Operand <T> lr, Operand <T> l1, Operand <T > l2, Operand < TInt64 > globalStep, אפשרויות... אפשרויות)

שיטת מפעל ליצירת מחלקה העוטפת פעולת ApplyAdagradDa חדשה.

פרמטרים
תְחוּם ההיקף הנוכחי
var צריך להיות ממשתנה().
gradientAccumulator צריך להיות ממשתנה().
gradientSquaredAccumulator צריך להיות ממשתנה().
גראד השיפוע.
lr גורם קנה מידה. חייב להיות סקלר.
l1 הסדרת L1. חייב להיות סקלר.
l2 הסדרת L2. חייב להיות סקלר.
globalStep מספר שלב האימון. חייב להיות סקלר.
אפשרויות נושא ערכי תכונות אופציונליות
החזרות
  • מופע חדש של ApplyAdagradDa

פלט ציבורי <T> החוצה ()

זהה ל-"var".

public static ApplyAdagradDa.Options useLocking (Boolian useLocking)

פרמטרים
השתמש בנעילה אם נכון, עדכון טנסור ה- var ו-acum יהיה מוגן על ידי מנעול; אחרת ההתנהגות אינה מוגדרת, אך עלולה להפגין פחות מחלוקת.