עדכן את הערכים הרלוונטיים ב-'*var' ו-'*accum' בהתאם לתכנית adgrad.
כלומר, עבור שורות שיש לנו גראד עבורן, אנו מעדכנים את var ומצטברים באופן הבא: $$accum += grad * grad$$$$var -= lr * grad * (1 / sqrt(accum))$$
כיתות מקוננות
| מַחלָקָה | SparseApplyAdagradV2.Options | תכונות אופציונליות עבור SparseApplyAdagradV2 | |
שיטות ציבוריות
| פלט <T> | asOutput () מחזירה את הידית הסמלית של טנזור. |
| סטטי <T, U מרחיב מספר> SparseApplyAdagradV2 <T> | |
| פלט <T> | החוצה () זהה ל-"var". |
| סטטי SparseApplyAdagradV2.Options | updateSlots (עדכון בוליאני) |
| סטטי SparseApplyAdagradV2.Options | useLocking (useLocking בוליאני) |
שיטות בירושה
שיטות ציבוריות
פלט ציבורי <T> asOutput ()
מחזירה את הידית הסמלית של טנזור.
כניסות לפעולות TensorFlow הן יציאות של פעולת TensorFlow אחרת. שיטה זו משמשת להשגת ידית סמלית המייצגת את חישוב הקלט.
public static SparseApplyAdagradV2 <T> create ( scope scope, Operand <T> var, Operand <T> accum, Operand <T> lr, Operand <T> epsilon, Operand <T> grad, Operand <U>, Options.. אפשרויות )
שיטת מפעל ליצירת מחלקה העוטפת פעולת SparseApplyAdagradV2 חדשה.
פרמטרים
| תְחוּם | ההיקף הנוכחי |
|---|---|
| var | צריך להיות ממשתנה(). |
| לצבור | צריך להיות ממשתנה(). |
| lr | קצב למידה. חייב להיות סקלר. |
| אפסילון | גורם קבוע. חייב להיות סקלר. |
| גראד | השיפוע. |
| מדדים | וקטור של מדדים למימד הראשון של var ו-acum. |
| אפשרויות | נושא ערכי תכונות אופציונליות |
מחזיר
- מופע חדש של SparseApplyAdagradV2
public static SparseApplyAdagradV2.Options useLocking (שימוש בוליאני)
פרמטרים
| השתמש בנעילה | אם 'נכון', עדכון טנסור ה- var ו-acum יהיה מוגן על ידי מנעול; אחרת ההתנהגות אינה מוגדרת, אך עלולה להפגין פחות מחלוקת. |
|---|