ResourceSparseApplyAdagrad

מחלקה אחרונה ציבורית ResourceSparseApplyAdagrad

עדכן את הערכים הרלוונטיים ב-'*var' ו-'*accum' בהתאם לתכנית adgrad.

כלומר עבור שורות שיש לנו גראד עבורן, אנו מעדכנים את var ו-acum באופן הבא: accum += grad * grad var -= lr * grad * (1 / sqrt(accum))

כיתות מקוננות

מעמד ResourceSparseApplyAdagrad.Options תכונות אופציונליות עבור ResourceSparseApplyAdagrad

קבועים

חוּט OP_NAME השם של המבצע הזה, כפי שידוע על ידי מנוע הליבה של TensorFlow

שיטות ציבוריות

static <T מרחיב את TType > ResourceSparseApplyAdagrad
create ( Scope scope, Operand <?> var, Operand <?> accum, Operand <T> lr, Operand <T> grad, Operand <? מרחיב את המדדים של TNummer , Options... אפשרויות)
שיטת מפעל ליצירת מחלקה העוטפת פעולת ResourceSparseApplyAdagrad חדשה.
static ResourceSparseApplyAdagrad.Options
updateSlots (בוליאני updateSlots)
static ResourceSparseApplyAdagrad.Options
useLocking (useLocking בוליאני)

שיטות בירושה

קבועים

מחרוזת סופית סטטית ציבורית OP_NAME

השם של המבצע הזה, כפי שידוע על ידי מנוע הליבה של TensorFlow

ערך קבוע: "ResourceSparseApplyAdagrad"

שיטות ציבוריות

public static ResourceSparseApplyAdagrad create ( scope scope, Operand <?> var, Operand <?> accum, Operand <T> lr, Operand <T> grad, Operand <? מרחיב את המדדים של TNummer , Options... אפשרויות)

שיטת מפעל ליצירת מחלקה העוטפת פעולת ResourceSparseApplyAdagrad חדשה.

פרמטרים
תְחוּם ההיקף הנוכחי
var צריך להיות ממשתנה().
לצבור צריך להיות ממשתנה().
lr קצב למידה. חייב להיות סקלר.
גראד השיפוע.
מדדים וקטור של מדדים למימד הראשון של var ו-acum.
אפשרויות נושא ערכי תכונות אופציונליות
החזרות
  • מופע חדש של ResourceSparseApplyAdagrad

public static ResourceSparseApplyAdagrad.Options updateSlots (Slots עדכון בוליאני)

public static ResourceSparseApplyAdagrad.Options useLocking (שימוש בוליאני נעילה)

פרמטרים
השתמש בנעילה אם 'נכון', עדכון טנסור ה- var ו-acum יהיה מוגן על ידי מנעול; אחרת ההתנהגות אינה מוגדרת, אך עלולה להפגין פחות מחלוקת.