ResourceApplyAdagradDa

כיתה אחרונה ציבורית ResourceApplyAdagradDa

עדכן את '*var' בהתאם לתוכנית adgrad הפרוקסימלית.

כיתות מקוננות

מעמד ResourceApplyAdagradDa.Options תכונות אופציונליות עבור ResourceApplyAdagradDa

קבועים

חוּט OP_NAME השם של המבצע הזה, כפי שידוע על ידי מנוע הליבה של TensorFlow

שיטות ציבוריות

static <T מרחיב את TType > ResourceApplyAdagradDa
create ( Scope scope, Operand <?> var, Operand <?> gradientAccumulator, Operand <?> gradientSquaredAccumulator, Operand <T> grad, Operand <T> lr, Operand <T> l1, Operand <T> l2, Operand < TInt64 > globalStep, אפשרויות... אפשרויות)
שיטת מפעל ליצירת מחלקה העוטפת פעולת ResourceApplyAdagradDa חדשה.
static ResourceApplyAdagradDa.Options
useLocking (useLocking בוליאני)

שיטות בירושה

קבועים

מחרוזת סופית סטטית ציבורית OP_NAME

השם של המבצע הזה, כפי שידוע על ידי מנוע הליבה של TensorFlow

ערך קבוע: "ResourceApplyAdagradDA"

שיטות ציבוריות

public static ResourceApplyAdagradDa create ( Scope scope, Operand <?> var, Operand <?> gradientAccumulator, Operand <?> gradientSquaredAccumulator, Operand <T> grad, Operand <T> lr, Operand <T> l1, Operand <T> l2, Operand < TInt64 > globalStep, Options... options)

שיטת מפעל ליצירת מחלקה העוטפת פעולת ResourceApplyAdagradDa חדשה.

פרמטרים
תְחוּם ההיקף הנוכחי
var צריך להיות ממשתנה().
gradientAccumulator צריך להיות ממשתנה().
gradientSquaredAccumulator צריך להיות ממשתנה().
גראד השיפוע.
lr גורם קנה מידה. חייב להיות סקלר.
l1 הסדרת L1. חייב להיות סקלר.
l2 הסדרת L2. חייב להיות סקלר.
globalStep מספר שלב האימון. חייב להיות סקלר.
אפשרויות נושא ערכי תכונות אופציונליות
החזרות
  • מופע חדש של ResourceApplyAdagradDa

Public static ResourceApplyAdagradDa.Options useLocking (שימוש בוליאני)

פרמטרים
השתמש בנעילה אם נכון, עדכון טנסור ה- var ו-acum יהיה מוגן על ידי מנעול; אחרת ההתנהגות אינה מוגדרת, אך עלולה להפגין פחות מחלוקת.