ResourceSparseApplyProximalGradientDescent

מחלקה סופית ציבורית ResourceSparseApplyProximalGradientDescent

עדכון דל '*var' כאלגוריתם FOBOS עם קצב למידה קבוע.

כלומר עבור שורות שיש לנו גראד עבורן, אנו מעדכנים את var באופן הבא: prox_v = var - alpha grad var = sign(prox_v)/(1+alpha l2) max{|prox_v|-alpha l1,0}

כיתות מקוננות

מעמד ResourceSparseApplyProximalGradientDescent.Options תכונות אופציונליות עבור ResourceSparseApplyProximalGradientDescent

קבועים

חוּט OP_NAME השם של המבצע הזה, כפי שידוע על ידי מנוע הליבה של TensorFlow

שיטות ציבוריות

static <T מרחיב את TType > ResourceSparseApplyProximalGradientDescent
create ( scope scope, Operand <?> var, Operand <T> alpha, Operand <T> l1, Operand <T> l2, Operand <T> grad, Operand <? מרחיב את המדדים של TNummer , Options... אפשרויות)
שיטת מפעל ליצירת מחלקה העוטפת פעולת ResourceSparseApplyProximalGradientDescent חדשה.
static ResourceSparseApplyProximalGradientDescent.Options
useLocking (useLocking בוליאני)

שיטות בירושה

קבועים

מחרוזת סופית סטטית ציבורית OP_NAME

השם של המבצע הזה, כפי שידוע על ידי מנוע הליבה של TensorFlow

ערך קבוע: "ResourceSparseApplyProximalGradientDescent"

שיטות ציבוריות

public static ResourceSparseApplyProximalGradientDescent create ( scope scope, Operand <?> var, Operand <T> alpha, Operand <T> l1, Operand <T> l2, Operand <T> grad, Operand <? מרחיב את TNummer > אינדקסים, אפשרויות... אפשרויות)

שיטת מפעל ליצירת מחלקה העוטפת פעולת ResourceSparseApplyProximalGradientDescent חדשה.

פרמטרים
תְחוּם ההיקף הנוכחי
var צריך להיות ממשתנה().
אלפא גורם קנה מידה. חייב להיות סקלר.
l1 הסדרת L1. חייב להיות סקלר.
l2 הסדרת L2. חייב להיות סקלר.
גראד השיפוע.
מדדים וקטור של מדדים למימד הראשון של var ו-acum.
אפשרויות נושא ערכי תכונות אופציונליות
החזרות
  • מופע חדש של ResourceSparseApplyProximalGradientDescent

public static ResourceSparseApplyProximalGradientDescent.Options useLocking (שימוש בוליאני נעילה)

פרמטרים
השתמש בנעילה אם נכון, החיסור יהיה מוגן על ידי מנעול; אחרת ההתנהגות אינה מוגדרת, אך עלולה להפגין פחות מחלוקת.