ResourceSparseApplyAdagradDa

כיתה אחרונה ציבורית ResourceSparseApplyAdagradDa

עדכן ערכים ב-'*var' ו-'*accum' בהתאם לתכנית ה-adagrad הפרוקסימלית.

כיתות מקוננות

מעמד ResourceSparseApplyAdagradDa.Options תכונות אופציונליות עבור ResourceSparseApplyAdagradDa

קבועים

חוּט OP_NAME השם של המבצע הזה, כפי שידוע על ידי מנוע הליבה של TensorFlow

שיטות ציבוריות

static <T מרחיב את TType > ResourceSparseApplyAdagradDa
create ( Scope scope, Operand <?> var, Operand <?> gradientAccumulator, Operand <?> gradientSquaredAccumulator, Operand <T> grad, Operand <? מרחיב את המדדים של TNumber >, Operand <T> lr, Operand <T> l1, Operand <T> l2, Operand < TInt64 > globalStep, Options... options)
שיטת מפעל ליצירת מחלקה העוטפת פעולת ResourceSparseApplyAdagradDa חדשה.
static ResourceSparseApplyAdagradDa.Options
useLocking (useLocking בוליאני)

שיטות בירושה

קבועים

מחרוזת סופית סטטית ציבורית OP_NAME

השם של המבצע הזה, כפי שידוע על ידי מנוע הליבה של TensorFlow

ערך קבוע: "ResourceSparseApplyAdagradDA"

שיטות ציבוריות

public static ResourceSparseApplyAdagradDa create ( Scope scope, Operand <?> var, Operand <?> gradientAccumulator, Operand <?> gradientSquaredAccumulator, Operand <T> grad, Operand <? מרחיב את המדדים של Tnumber >, Operand <T> lr, Operand <T> l1, Operand <T> l2, Operand < TInt64 > globalStep, Options... options)

שיטת מפעל ליצירת מחלקה העוטפת פעולת ResourceSparseApplyAdagradDa חדשה.

פרמטרים
תְחוּם ההיקף הנוכחי
var צריך להיות ממשתנה().
gradientAccumulator צריך להיות ממשתנה().
gradientSquaredAccumulator צריך להיות ממשתנה().
גראד השיפוע.
מדדים וקטור של מדדים למימד הראשון של var ו-acum.
lr קצב למידה. חייב להיות סקלר.
l1 הסדרת L1. חייב להיות סקלר.
l2 הסדרת L2. חייב להיות סקלר.
globalStep מספר שלב האימון. חייב להיות סקלר.
אפשרויות נושא ערכי תכונות אופציונליות
החזרות
  • מופע חדש של ResourceSparseApplyAdagradDa

public static ResourceSparseApplyAdagradDa.Options useLocking (שימוש בוליאניLocking)

פרמטרים
השתמש בנעילה אם נכון, עדכון טנסור ה- var ו-acum יהיה מוגן על ידי מנעול; אחרת ההתנהגות אינה מוגדרת, אך עלולה להפגין פחות מחלוקת.