org.tensorflow.framework.optimizers
bookmark_borderbookmark
با مجموعهها، منظم بمانید
ذخیره و طبقهبندی محتوا براساس اولویتهای شما.
کلاس ها
AdaDelta | بهینه ساز که الگوریتم Adadelta را پیاده سازی می کند. |
آداگراد | بهینه ساز که الگوریتم Adagrad را پیاده سازی می کند. |
AdaGradDA | بهینه ساز که الگوریتم میانگین دوگانه Adagrad را پیاده سازی می کند. |
آدم | بهینه ساز که الگوریتم Adam را پیاده سازی می کند. |
آداماکس | بهینه ساز که الگوریتم Adamax را پیاده سازی می کند. |
Ftrl | بهینه ساز که الگوریتم FTRL را پیاده سازی می کند. |
GradientDescent | بهینه ساز پایه شیب نزولی Stochastic. |
تکانه | نزول شیب تصادفی به اضافه تکانه، نستروف یا سنتی. |
نادام | بهینه ساز Nadam که الگوریتم NAdam را پیاده سازی می کند. |
بهینه ساز | کلاس پایه برای بهینه سازهای گرادیان. |
Optimizer.GradAndVar <T TType > را گسترش می دهد | کلاسی که دارای یک گرادیان و متغیر جفتی است. |
Optimizer.Options | ویژگی های اختیاری برای Optimizer |
RMSProp | بهینه ساز که الگوریتم RMSProp را پیاده سازی می کند. |
Enums
بهینه سازها | Enumerator برای ایجاد یک بهینه ساز جدید با پارامترهای پیش فرض استفاده می شود. |
جز در مواردی که غیر از این ذکر شده باشد،محتوای این صفحه تحت مجوز Creative Commons Attribution 4.0 License است. نمونه کدها نیز دارای مجوز Apache 2.0 License است. برای اطلاع از جزئیات، به خطمشیهای سایت Google Developers مراجعه کنید. جاوا علامت تجاری ثبتشده Oracle و/یا شرکتهای وابسته به آن است.
تاریخ آخرین بهروزرسانی 2025-07-26 بهوقت ساعت هماهنگ جهانی.
[[["درک آسان","easyToUnderstand","thumb-up"],["مشکلم را برطرف کرد","solvedMyProblem","thumb-up"],["غیره","otherUp","thumb-up"]],[["اطلاعاتی که نیاز دارم وجود ندارد","missingTheInformationINeed","thumb-down"],["بیشازحد پیچیده/ مراحل بسیار زیاد","tooComplicatedTooManySteps","thumb-down"],["قدیمی","outOfDate","thumb-down"],["مشکل ترجمه","translationIssue","thumb-down"],["مشکل کد / نمونهها","samplesCodeIssue","thumb-down"],["غیره","otherDown","thumb-down"]],["تاریخ آخرین بهروزرسانی 2025-07-26 بهوقت ساعت هماهنگ جهانی."],[],[],null,["# org.tensorflow.framework.optimizers\n\n### Classes\n\n|--------------------------------------------------------------------------------------------------------------------------------------------------------------------------------|-------------------------------------------------------------------------------------------------------|\n| [AdaDelta](/jvm/api_docs/java/org/tensorflow/framework/optimizers/AdaDelta) | Optimizer that implements the Adadelta algorithm. |\n| [AdaGrad](/jvm/api_docs/java/org/tensorflow/framework/optimizers/AdaGrad) | Optimizer that implements the Adagrad algorithm. |\n| [AdaGradDA](/jvm/api_docs/java/org/tensorflow/framework/optimizers/AdaGradDA) | Optimizer that implements the Adagrad Dual-Averaging algorithm. |\n| [Adam](/jvm/api_docs/java/org/tensorflow/framework/optimizers/Adam) | Optimizer that implements the Adam algorithm. |\n| [Adamax](/jvm/api_docs/java/org/tensorflow/framework/optimizers/Adamax) | Optimizer that implements the Adamax algorithm. |\n| [Ftrl](/jvm/api_docs/java/org/tensorflow/framework/optimizers/Ftrl) | Optimizer that implements the FTRL algorithm. |\n| [GradientDescent](/jvm/api_docs/java/org/tensorflow/framework/optimizers/GradientDescent) | Basic Stochastic gradient descent optimizer. |\n| [Momentum](/jvm/api_docs/java/org/tensorflow/framework/optimizers/Momentum) | Stochastic gradient descent plus momentum, either nesterov or traditional. |\n| [Nadam](/jvm/api_docs/java/org/tensorflow/framework/optimizers/Nadam) | Nadam Optimizer that implements the NAdam algorithm. |\n| [Optimizer](/jvm/api_docs/java/org/tensorflow/framework/optimizers/Optimizer) | Base class for gradient optimizers. |\n| [Optimizer.GradAndVar](/jvm/api_docs/java/org/tensorflow/framework/optimizers/Optimizer.GradAndVar)\\\u003cT extends [TType](/jvm/api_docs/java/org/tensorflow/types/family/TType)\\\u003e | A class that holds a paired gradient and variable. |\n| [Optimizer.Options](/jvm/api_docs/java/org/tensorflow/framework/optimizers/Optimizer.Options) | Optional attributes for [Optimizer](/jvm/api_docs/java/org/tensorflow/framework/optimizers/Optimizer) |\n| [RMSProp](/jvm/api_docs/java/org/tensorflow/framework/optimizers/RMSProp) | Optimizer that implements the RMSProp algorithm. |\n\n### Enums\n\n|---------------------------------------------------------------------------------|--------------------------------------------------------------------|\n| [Optimizers](/jvm/api_docs/java/org/tensorflow/framework/optimizers/Optimizers) | Enumerator used to create a new Optimizer with default parameters. |"]]