Ftrl

کلاس عمومی Ftrl

بهینه ساز که الگوریتم FTRL را پیاده سازی می کند.

این نسخه از L2 آنلاین (جریمه L2 که در مقاله زیر آمده است) و L2 از نوع انقباض (که علاوه بر جریمه L2 به تابع ضرر) پشتیبانی می کند.

ثابت ها

رشته انباشت کننده
شناور INITIAL_ACCUMULATOR_VALUE_DEFAULT
شناور L1STRENGTH_DEFAULT
شناور L2STRENGTH_DEFAULT
شناور L2_SHRINKAGE_REGULARIZATION_STRENGTH_DEFAULT
شناور LEARNING_RATE_DEFAULT
شناور LEARNING_RATE_POWER_DEFAULT
رشته LINEAR_ACCUMULATOR

ثابت های ارثی

سازندگان عمومی

Ftrl ( گراف نمودار)
یک Ftrl Optimizer ایجاد می کند
Ftrl ( گراف نمودار، نام رشته)
یک Ftrl Optimizer ایجاد می کند
Ftrl ( گراف نمودار، نرخ یادگیری شناور)
یک Ftrl Optimizer ایجاد می کند
Ftrl ( گراف نمودار، نام رشته، نرخ یادگیری شناور)
یک Ftrl Optimizer ایجاد می کند
Ftrl ( گراف نمودار، نرخ یادگیری شناور، نرخ یادگیری شناور، مقدار اولیه جمع‌آوری شناور، float l1قدرت، شناور l2 استحکام، شناور l2ShrinkageRegularizationStrength)
یک Ftrl Optimizer ایجاد می کند
Ftrl ( گراف نمودار، نام رشته، نرخ یادگیری شناور، نرخ یادگیری شناور، مقدار اولیه جمع‌آوری شناور، مقدار float l1 استحکام، شناور l2 استحکام، شناور l2ShrinkageRegularizationStrength)
یک Ftrl Optimizer ایجاد می کند

روش های عمومی

رشته
getOptimizerName ()
نام بهینه ساز را دریافت کنید.

روش های ارثی

ثابت ها

ACCUMULATOR نهایی استاتیک عمومی

مقدار ثابت: "gradient_accumulator"

شناور نهایی استاتیک عمومی INITIAL_ACCUMULATOR_VALUE_DEFAULT

مقدار ثابت: 0.1

شناور نهایی ثابت عمومی L1STRENGTH_DEFAULT

مقدار ثابت: 0.0

شناور نهایی استاتیک عمومی L2STRENGTH_DEFAULT

مقدار ثابت: 0.0

شناور نهایی ثابت عمومی L2_SHRINKAGE_REGULARIZATION_STRENGTH_DEFAULT

مقدار ثابت: 0.0

شناور نهایی ثابت عمومی LEARNING_RATE_DEFAULT

مقدار ثابت: 0.001

شناور نهایی ثابت عمومی LEARNING_RATE_POWER_DEFAULT

مقدار ثابت: -0.5

رشته نهایی ثابت عمومی LINEAR_ACCUMULATOR

مقدار ثابت: "linear_accumulator"

سازندگان عمومی

عمومی Ftrl ( گراف نمودار )

یک Ftrl Optimizer ایجاد می کند

مولفه های
نمودار نمودار TensorFlow

عمومی Ftrl (گراف نمودار ، نام رشته)

یک Ftrl Optimizer ایجاد می کند

مولفه های
نمودار نمودار TensorFlow
نام نام این بهینه ساز

عمومی Ftrl ( گراف نمودار، نرخ یادگیری شناور)

یک Ftrl Optimizer ایجاد می کند

مولفه های
نمودار نمودار TensorFlow
نرخ یادگیری میزان یادگیری

عمومی Ftrl ( گراف نمودار، نام رشته، نرخ یادگیری شناور)

یک Ftrl Optimizer ایجاد می کند

مولفه های
نمودار نمودار TensorFlow
نام نام این بهینه ساز
نرخ یادگیری میزان یادگیری

عمومی Ftrl ( گراف نمودار، نرخ یادگیری شناور، نرخ یادگیری شناور، مقدار اولیه جمع‌آوری شناور، float l1 استحکام، شناور l2 استحکام، شناور l2ShrinkageRegularizationStrength)

یک Ftrl Optimizer ایجاد می کند

مولفه های
نمودار نمودار TensorFlow
نرخ یادگیری میزان یادگیری
LearnRatePower نحوه کاهش میزان یادگیری در طول آموزش را کنترل می کند. برای نرخ یادگیری ثابت از صفر استفاده کنید.
FillAccumulatorValue مقدار شروع برای آکومولاتورها فقط مقادیر صفر یا مثبت مجاز هستند.
l1 قدرت قدرت تنظیم L1 باید بزرگتر یا مساوی صفر باشد.
l2 قدرت قدرت تنظیم L2 باید بزرگتر یا مساوی صفر باشد.
l2استحکام انقباض منظم این تفاوت با L2 بالا در این است که L2 بالا یک جریمه تثبیت است، در حالی که این انقباض L2 یک جریمه بزرگ است. باید بزرگتر یا مساوی صفر باشد.
پرتاب می کند
IllegalArgumentException اگر مقدار اولیه Accumulator، l1RegularizationStrength، l2RegularizationStrength، یا l2ShrinkageRegularizationStrength کمتر از 0.0 باشد، یا LearnRatePower بیشتر از 0.0 باشد.

عمومی Ftrl ( گراف نمودار، نام رشته، نرخ یادگیری شناور، نرخ یادگیری شناور، مقدار اولیه جمع‌آوری شناور، مقدار float l1 استحکام، شناور l2 استحکام، float l2ShrinkageRegularizationStrength)

یک Ftrl Optimizer ایجاد می کند

مولفه های
نمودار نمودار TensorFlow
نام نام این بهینه ساز
نرخ یادگیری میزان یادگیری
LearnRatePower نحوه کاهش میزان یادگیری در طول آموزش را کنترل می کند. برای نرخ یادگیری ثابت از صفر استفاده کنید.
FillAccumulatorValue مقدار شروع برای آکومولاتورها فقط مقادیر صفر یا مثبت مجاز هستند.
l1 قدرت قدرت تنظیم L1 باید بزرگتر یا مساوی صفر باشد.
l2 قدرت قدرت تنظیم L2 باید بزرگتر یا مساوی صفر باشد.
l2استحکام انقباض منظم این تفاوت با L2 بالا در این است که L2 بالا یک جریمه تثبیت است، در حالی که این انقباض L2 یک جریمه بزرگ است. باید بزرگتر یا مساوی صفر باشد.
پرتاب می کند
IllegalArgumentException اگر مقدار اولیه Accumulator، l1RegularizationStrength، l2RegularizationStrength، یا l2ShrinkageRegularizationStrength کمتر از 0.0 باشد، یا LearnRatePower بیشتر از 0.0 باشد.

روش های عمومی

رشته عمومی getOptimizerName ()

نام بهینه ساز را دریافت کنید.

برمی گرداند
  • نام بهینه ساز