org.tensorflow.framework.optimizers

שיעורים

AdaDelta אופטימיזציה המיישמת את אלגוריתם Adadelta.
אדאגראד מייעל המטמיע את אלגוריתם אדגרד.
AdaGradDA אופטימיזציה המיישמת את אלגוריתם ה-Adagrad Dual-Averaging.
אדם אופטימיזציה המיישמת את אלגוריתם אדם.
אדמקס אופטימיזציה המיישמת את אלגוריתם Adamax.
Ftrl אופטימיזציה המיישמת את אלגוריתם FTRL.
GradientDescent מייעל ירידה בשיפוע סטוכסטי בסיסי.
תְנוּפָה ירידה בשיפוע סטוכסטי פלוס מומנטום, נסטרוב או מסורתי.
נדאם Nadam Optimizer שמיישם את אלגוריתם NAdam.
מייעל מחלקה בסיס למיטובי שיפוע.
Optimizer.GradAndVar <T מרחיב את TType > מחלקה שמחזיקה שיפוע ומשתנה מזווגים.
אופטימיזציה.אפשרויות תכונות אופציונליות עבור Optimizer
RMSProp אופטימיזציה המיישמת את אלגוריתם RMSProp.

תקצירים

מייעלים המונה משמש ליצירת כלי אופטימיזציה חדש עם פרמטרי ברירת מחדל.