org.tensorflow.framework.optimizers

کلاس ها

AdaDelta بهینه ساز که الگوریتم Adadelta را پیاده سازی می کند.
آداگراد بهینه ساز که الگوریتم Adagrad را پیاده سازی می کند.
AdaGradDA بهینه ساز که الگوریتم میانگین دوگانه Adagrad را پیاده سازی می کند.
آدم بهینه ساز که الگوریتم Adam را پیاده سازی می کند.
آداماکس بهینه ساز که الگوریتم Adamax را پیاده سازی می کند.
Ftrl بهینه ساز که الگوریتم FTRL را پیاده سازی می کند.
GradientDescent بهینه ساز پایه شیب نزولی Stochastic.
تکانه نزول شیب تصادفی به اضافه تکانه، نستروف یا سنتی.
نادام بهینه ساز Nadam که الگوریتم NAdam را پیاده سازی می کند.
بهینه ساز کلاس پایه برای بهینه سازهای گرادیان.
Optimizer.GradAndVar <T TType > را گسترش می دهد کلاسی که دارای یک گرادیان و متغیر جفتی است.
Optimizer.Options ویژگی های اختیاری برای Optimizer
RMSProp بهینه ساز که الگوریتم RMSProp را پیاده سازی می کند.

Enums

بهینه سازها Enumerator برای ایجاد یک بهینه ساز جدید با پارامترهای پیش فرض استفاده می شود.