RetrieveTPUEmbeddingStochasticGradientDescentParametersGradAccumDebug

כיתת גמר ציבורית אחזר TPUEהטבעה StochasticGradient DescentParametersGradAccumDebug

אחזר פרמטרים של הטבעת SGD עם תמיכה באגים.

אופ שמחזיר את פרמטרי האופטימיזציה מהטמעה לזיכרון המארח. יש להקדים את הפעלת ConfigureTPUEmbeddingHost המגדירה את תצורת טבלת ההטמעה הנכונה. לדוגמה, אופציה זו משמשת לאחזור פרמטרים מעודכנים לפני שמירת נקודת ביקורת.

כיתות מקוננות

מעמד חזור מאפיינים אופציונליים עבור RetrieveTPUEmbeddingStochasticGradientDescentParametersGradAccumDebug

קבועים

חוּט OP_NAME השם של המבצע הזה, כפי שידוע על ידי מנוע הליבה של TensorFlow

שיטות ציבוריות

אחזור סטטי TPUEהטבעהStochasticGradientDescentParametersGradAccumDebug.Options
config (תצורת מחרוזת)
אחזור סטטיTPUEהטבעהStochasticGradient DescentParametersGradAccumDebug
צור ( היקף היקף, numShards ארוך, קטע זיהוי ארוך, אפשרויות... אפשרויות)
שיטת מפעל ליצירת מחלקה העוטפת פעולת RetrieveTPUEembeddingStochasticGradientDescentParametersGradAccumDebug.
פלט < TFloat32 >
gradientAccumulators ()
פרמטר gradient_accumulators מעודכן על ידי אלגוריתם האופטימיזציה של Adadelta.
פלט < TFloat32 >
פרמטרים ()
פרמטרים של פרמטרים מעודכנים על ידי אלגוריתם אופטימיזציית הירידה הסטוכסטית.
אחזור סטטי TPUEהטבעהStochasticGradientDescentParametersGradAccumDebug.Options
tableId (Long tableId)
אחזור סטטי TPUEהטבעהStochasticGradientDescentParametersGradAccumDebug.Options
tableName (מחרוזת tableName)

שיטות בירושה

קבועים

מחרוזת סופית סטטית ציבורית OP_NAME

השם של המבצע הזה, כפי שידוע על ידי מנוע הליבה של TensorFlow

ערך קבוע: "RetrieveTPUEmbeddingStochasticGradientDescentParametersGradAccumDebug"

שיטות ציבוריות

public static RetrieveTPUEmbeddingStochasticGradientDescentParametersGradAccumDebug create ( היקף היקף , numShards ארוך, זיהוי קטע ארוך, אפשרויות... אפשרויות)

שיטת מפעל ליצירת מחלקה העוטפת פעולת RetrieveTPUEembeddingStochasticGradientDescentParametersGradAccumDebug.

פרמטרים
תְחוּם ההיקף הנוכחי
אפשרויות נושא ערכי תכונות אופציונליות
החזרות
  • מופע חדש של RetrieveTPUEmbeddingStochasticGradientDescentParametersGradAccumDebug

פלט ציבורי < TFloat32 > gradientAccumulators ()

פרמטר gradient_accumulators מעודכן על ידי אלגוריתם האופטימיזציה של Adadelta.

פלט ציבורי < TFloat32 > פרמטרים ()

פרמטרים של פרמטרים מעודכנים על ידי אלגוריתם אופטימיזציית הירידה הסטוכסטית.