ResourceSparseApplyProximalAdagrad

מחלקה סופית ציבורית ResourceSparseApplyProximalAdagrad

ערכי עדכון דלילים ב-'*var' ו-'*accum' לפי אלגוריתם FOBOS.

כלומר עבור שורות שיש לנו גראד עבורן, אנו מעדכנים את var ו-acum באופן הבא: accum += grad grad prox_v = var prox_v -= lr grad (1 / sqrt(accum)) var = sign(prox_v)/(1+lr l2 ) max{|prox_v|-lr l1,0}

כיתות מקוננות

מעמד ResourceSparseApplyProximalAdagrad.Options תכונות אופציונליות עבור ResourceSparseApplyProximalAdagrad

קבועים

חוּט OP_NAME השם של המבצע הזה, כפי שידוע על ידי מנוע הליבה של TensorFlow

שיטות ציבוריות

static <T מרחיב TType > ResourceSparseApplyProximalAdagrad
create ( Scope scope, Operand <?> var, Operand <?> accum, Operand <T> lr, Operand <T> l1, Operand <T> l2, Operand <T> grad, Operand <? מרחיב את המדדים של Tnumber >, אפשרויות ... אפשרויות)
שיטת מפעל ליצירת מחלקה העוטפת פעולת ResourceSparseApplyProximalAdagrad חדשה.
static ResourceSparseApplyProximalAdagrad.Options
useLocking (useLocking בוליאני)

שיטות בירושה

קבועים

מחרוזת סופית סטטית ציבורית OP_NAME

השם של המבצע הזה, כפי שידוע על ידי מנוע הליבה של TensorFlow

ערך קבוע: "ResourceSparseApplyProximalAdagrad"

שיטות ציבוריות

public static ResourceSparseApplyProximalAdagrad create ( Scope scope, Operand <?> var, Operand <?> accum, Operand <T> lr, Operand <T> l1, Operand <T> l2, Operand <T> grad, Operand <? מרחיב Tnumber > מדדים, אפשרויות... אפשרויות)

שיטת מפעל ליצירת מחלקה העוטפת פעולת ResourceSparseApplyProximalAdagrad חדשה.

פרמטרים
תְחוּם ההיקף הנוכחי
var צריך להיות ממשתנה().
לצבור צריך להיות ממשתנה().
lr קצב למידה. חייב להיות סקלר.
l1 הסדרת L1. חייב להיות סקלר.
l2 הסדרת L2. חייב להיות סקלר.
גראד השיפוע.
מדדים וקטור של מדדים למימד הראשון של var ו-acum.
אפשרויות נושא ערכי תכונות אופציונליות
החזרות
  • מופע חדש של ResourceSparseApplyProximalAdagrad

public static ResourceSparseApplyProximalAdagrad.Options useLocking (שימוש בוליאניLocking)

פרמטרים
השתמש בנעילה אם נכון, עדכון טנסור ה- var ו-acum יהיה מוגן על ידי מנעול; אחרת ההתנהגות אינה מוגדרת, אך עלולה להפגין פחות מחלוקת.