ResourceApplyAdagrad

כיתה אחרונה ציבורית ResourceApplyAdagrad

עדכן את '*var' בהתאם לתכנית adgrad.

accum += grad * grad var -= lr * grad * (1 / (sqrt(accum) + epsilon))

כיתות מקוננות

מעמד ResourceApplyAdagrad.Options תכונות אופציונליות עבור ResourceApplyAdagrad

קבועים

חוּט OP_NAME השם של המבצע הזה, כפי שידוע על ידי מנוע הליבה של TensorFlow

שיטות ציבוריות

סטטי <T מרחיב את TType > ResourceApplyAdagrad
create ( scope scope, Operand <?> var, Operand <?> accum, Operand <T> lr, Operand <T> epsilon, Operand <T> grad, Options... options)
שיטת מפעל ליצירת מחלקה העוטפת פעולת ResourceApplyAdagrad חדשה.
static ResourceApplyAdagrad.Options
updateSlots (בוליאני updateSlots)
static ResourceApplyAdagrad.Options
useLocking (useLocking בוליאני)

שיטות בירושה

קבועים

מחרוזת סופית סטטית ציבורית OP_NAME

השם של המבצע הזה, כפי שידוע על ידי מנוע הליבה של TensorFlow

ערך קבוע: "ResourceApplyAdagradV2"

שיטות ציבוריות

public static ResourceApplyAdagrad create ( scope scope, Operand <?> var, Operand <?> accum, Operand <T> lr, Operand <T> epsilon, Operand <T> grad, Options... options)

שיטת מפעל ליצירת מחלקה העוטפת פעולת ResourceApplyAdagrad חדשה.

פרמטרים
תְחוּם ההיקף הנוכחי
var צריך להיות ממשתנה().
לצבור צריך להיות ממשתנה().
lr גורם קנה מידה. חייב להיות סקלר.
אפסילון גורם קבוע. חייב להיות סקלר.
גראד השיפוע.
אפשרויות נושא ערכי תכונות אופציונליות
החזרות
  • מופע חדש של ResourceApplyAdagrad

public static ResourceApplyAdagrad.Options updateSlots (בוליאני updateSlots)

public static ResourceApplyAdagrad.Options useLocking (שימוש בוליאני)

פרמטרים
השתמש בנעילה אם 'נכון', עדכון טנסור ה- var ו-acum יהיה מוגן על ידי מנעול; אחרת ההתנהגות אינה מוגדרת, אך עלולה להפגין פחות מחלוקת.