יום הקהילה ML הוא 9 בנובמבר! הצטרפו אלינו עדכונים מ- TensorFlow, JAX, ועוד למידע נוסף

אופני אימון

סיכום

שיעורים

tensorflow :: ops :: ApplyAdadelta

עדכן '* var' בהתאם לתכנית adadelta.

tensorflow :: ops :: החל Adagrad

עדכן את '* var' בהתאם לתכנית adagrad.

tensorflow :: ops :: ApplyAdagradDA

עדכן '* var' בהתאם לתכנית adagrad הפרוקסימלית.

tensorflow :: ops :: ApplyAdam

עדכן את '* var' על פי האלגוריתם של אדם.

tensorflow :: ops :: ApplyAddSign

עדכן '* var' בהתאם לעדכון AddSign.

tensorflow :: ops :: ApplyCenteredRMSProp

עדכן את '* var' בהתאם לאלגוריתם RMSProp המרוכז.

tensorflow :: ops :: ApplyFtrl

עדכן את '* var' בהתאם לתכנית Ftrl-proximal.

tensorflow :: ops :: ApplyFtrlV2

עדכן את '* var' בהתאם לתכנית Ftrl-proximal.

tensorflow :: ops :: ApplyGradientDescent

עדכן את '* var' על ידי הפחתת 'אלפא' * 'דלתא' ממנה.

tensorflow :: ops :: ApplyMomentum

עדכן את '* var' בהתאם לתכנית המומנטום.

tensorflow :: ops :: ApplyPowerSign

עדכן '* var' בהתאם לעדכון AddSign.

tensorflow :: ops :: ApplyProximalAdagrad

עדכן את '* var' ו- '* accum' על פי FOBOS עם שיעור הלמידה של Adagrad.

tensorflow :: ops :: ApplyProximalGradientDescent

עדכן את '* var' כאלגוריתם FOBOS עם קצב למידה קבוע.

tensorflow :: ops :: ApplyRMSProp

עדכן את '* var' בהתאם לאלגוריתם RMSProp.

tensorflow :: ops :: ResourceApplyAdadelta

עדכן '* var' בהתאם לתכנית adadelta.

tensorflow :: ops :: ResourceApplyAdagrad

עדכן את '* var' בהתאם לתכנית adagrad.

tensorflow :: ops :: ResourceApplyAdagradDA

עדכן '* var' בהתאם לתכנית adagrad הפרוקסימלית.

tensorflow :: ops :: ResourceApplyAdam

עדכן את '* var' על פי האלגוריתם של אדם.

tensorflow :: ops :: ResourceApplyAdamWithAmsgrad

עדכן את '* var' על פי האלגוריתם של אדם.

tensorflow :: ops :: ResourceApplyAddSign

עדכן '* var' בהתאם לעדכון AddSign.

tensorflow :: ops :: ResourceApplyCenteredRMSProp

עדכן את '* var' בהתאם לאלגוריתם RMSProp המרוכז.

tensorflow :: ops :: ResourceApplyFtrl

עדכן את '* var' בהתאם לתכנית Ftrl-proximal.

tensorflow :: ops :: ResourceApplyFtrlV2

עדכן את '* var' בהתאם לתכנית Ftrl-proximal.

tensorflow :: ops :: ResourceApplyGradientDescent

עדכן את '* var' על ידי הפחתת 'אלפא' * 'דלתא' ממנה.

tensorflow :: ops :: ResourceApplyKerasMomentum

עדכן את '* var' בהתאם לתכנית המומנטום.

tensorflow :: ops :: ResourceApplyMomentum

עדכן את '* var' בהתאם לתכנית המומנטום.

tensorflow :: ops :: ResourceApplyPowerSign

עדכן '* var' בהתאם לעדכון AddSign.

tensorflow :: ops :: ResourceApplyProximalAdagrad

עדכן את '* var' ו- '* accum' על פי FOBOS עם שיעור הלמידה של Adagrad.

tensorflow :: ops :: ResourceApplyProximalGradientDescent

עדכן את '* var' כאלגוריתם FOBOS עם קצב למידה קבוע.

tensorflow :: ops :: ResourceApplyRMSProp

עדכן את '* var' בהתאם לאלגוריתם RMSProp.

tensorflow :: ops :: ResourceSparseApplyAdadelta

var: צריך להיות מתוך משתנה ().

tensorflow :: ops :: ResourceSparseApplyAdagrad

עדכן רשומות רלוונטיות ב- '* var' ו- '* accum' בהתאם לתכנית adagrad.

tensorflow :: ops :: ResourceSparseApplyAdagradDA

עדכן רשומות ב- '* var' וב- '* accum' בהתאם לתכנית adagrad הפרוקסימלית.

tensorflow :: ops :: ResourceSparseApplyCenteredRMSProp

עדכן את '* var' בהתאם לאלגוריתם RMSProp המרוכז.

tensorflow :: ops :: ResourceSparseApplyFtrl

עדכן ערכים רלוונטיים ב- '* var' בהתאם לתכנית Ftrl-proximal.

tensorflow :: ops :: ResourceSparseApplyFtrlV2

עדכן ערכים רלוונטיים ב- '* var' בהתאם לתכנית Ftrl-proximal.

tensorflow :: ops :: ResourceSparseApplyKerasMomentum

עדכן ערכים רלוונטיים ב- '* var' ו- '* accum' בהתאם לתכנית המומנטום.

tensorflow :: ops :: ResourceSparseApplyMomentum

עדכן ערכים רלוונטיים ב- '* var' ו- '* accum' בהתאם לתכנית המומנטום.

tensorflow :: ops :: ResourceSparseApplyProximalAdagrad

ערכי עדכון דלילים ב- '* var' ו- '* accum' על פי אלגוריתם FOBOS.

tensorflow :: ops :: ResourceSparseApplyProximalGradientDescent

עדכון דליל '* var' כאלגוריתם FOBOS עם קצב למידה קבוע.

tensorflow :: ops :: ResourceSparseApplyRMSProp

עדכן את '* var' בהתאם לאלגוריתם RMSProp.

tensorflow :: ops :: SparseApplyAdadelta

var: צריך להיות מתוך משתנה ().

tensorflow :: ops :: SparseApplyAdagrad

עדכן רשומות רלוונטיות ב- '* var' ו- '* accum' בהתאם לתכנית adagrad.

tensorflow :: ops :: SparseApplyAdagradDA

עדכן רשומות ב- '* var' וב- '* accum' בהתאם לתכנית adagrad הפרוקסימלית.

tensorflow :: ops :: SparseApplyCenteredRMSProp

עדכן את '* var' בהתאם לאלגוריתם RMSProp המרוכז.

tensorflow :: ops :: SparseApplyFtrl

עדכן ערכים רלוונטיים ב- '* var' בהתאם לתכנית Ftrl-proximal.

tensorflow :: ops :: SparseApplyFtrlV2

עדכן ערכים רלוונטיים ב- '* var' בהתאם לתכנית Ftrl-proximal.

tensorflow :: ops :: SparseApplyMomentum

עדכן ערכים רלוונטיים ב- '* var' ו- '* accum' בהתאם לתכנית המומנטום.

tensorflow :: ops :: SparseApplyProximalAdagrad

ערכי עדכון דלילים ב- '* var' ו- '* accum' על פי אלגוריתם FOBOS.

tensorflow :: ops :: SparseApplyProximalGradientDescent

עדכון דליל '* var' כאלגוריתם FOBOS עם קצב למידה קבוע.

tensorflow :: ops :: SparseApplyRMSProp

עדכן את '* var' בהתאם לאלגוריתם RMSProp.