عملیات آموزشی

خلاصه

کلاس ها

tensorflow:: ops:: ApplyAdadelta

"*var" را طبق طرح adadelta به روز کنید.

tensorflow:: ops:: ApplyAdagrad

"*var" را طبق طرح adagrad به روز کنید.

tensorflow:: ops:: ApplyAdagradDA

"*var" را طبق طرح آداگراد پروگزیمال به روز کنید.

tensorflow:: ops:: ApplyAdam

"*var" را طبق الگوریتم Adam به روز کنید.

tensorflow:: ops:: ApplyAddSign

"*var" را مطابق به روز رسانی AddSign به روز کنید.

tensorflow:: ops:: ApplyCenteredRMSProp

"*var" را مطابق با الگوریتم RMSProp متمرکز به روز کنید.

tensorflow:: ops:: ApplyFtrl

"*var" را طبق طرح Ftrl-proximal به روز کنید.

tensorflow:: ops:: ApplyFtrlV2

"*var" را طبق طرح Ftrl-proximal به روز کنید.

tensorflow:: ops:: ApplyGradientDescent

«*var» را با کم کردن «alpha» * «delta» از آن به‌روزرسانی کنید.

tensorflow:: ops:: ApplyMomentum

"*var" را مطابق طرح حرکت به روز کنید.

tensorflow:: ops:: ApplyPowerSign

"*var" را مطابق به روز رسانی AddSign به روز کنید.

tensorflow:: ops:: ApplyProximalAdagrad

«*var» و «*accum» را مطابق با FOBOS با نرخ یادگیری Adagrad به‌روزرسانی کنید.

tensorflow:: ops:: ApplyProximalGradientDescent

"*var" را به عنوان الگوریتم FOBOS با نرخ یادگیری ثابت به روز کنید.

tensorflow:: ops:: ApplyRMSProp

"*var" را طبق الگوریتم RMSProp به روز کنید.

tensorflow:: ops:: ResourceApplyAdadelta

"*var" را طبق طرح adadelta به روز کنید.

tensorflow:: ops:: ResourceApplyAdagrad

"*var" را طبق طرح adagrad به روز کنید.

tensorflow:: ops:: ResourceApplyAdagradDA

"*var" را طبق طرح آداگراد پروگزیمال به روز کنید.

tensorflow:: ops:: ResourceApplyAdam

"*var" را طبق الگوریتم Adam به روز کنید.

tensorflow:: ops:: ResourceApplyAdamWithAmsgrad

"*var" را طبق الگوریتم Adam به روز کنید.

tensorflow:: ops:: ResourceApplyAddSign

"*var" را مطابق به روز رسانی AddSign به روز کنید.

tensorflow:: ops:: ResourceApplyCenteredRMSProp

"*var" را مطابق با الگوریتم RMSProp متمرکز به روز کنید.

tensorflow:: ops:: ResourceApplyFtrl

"*var" را طبق طرح Ftrl-proximal به روز کنید.

tensorflow:: ops:: ResourceApplyFtrlV2

"*var" را طبق طرح Ftrl-proximal به روز کنید.

tensorflow:: ops:: ResourceApplyGradientDescent

«*var» را با کم کردن «alpha» * «delta» از آن به‌روزرسانی کنید.

tensorflow:: ops:: ResourceApplyKerasMomentum

"*var" را مطابق طرح حرکت به روز کنید.

tensorflow:: ops:: ResourceApplyMomentum

"*var" را مطابق طرح حرکت به روز کنید.

tensorflow:: ops:: ResourceApplyPowerSign

"*var" را مطابق به روز رسانی AddSign به روز کنید.

tensorflow:: ops:: ResourceApplyProximalAdagrad

«*var» و «*accum» را مطابق با FOBOS با نرخ یادگیری Adagrad به‌روزرسانی کنید.

tensorflow:: ops:: ResourceApplyProximalGradientDescent

"*var" را به عنوان الگوریتم FOBOS با نرخ یادگیری ثابت به روز کنید.

tensorflow:: ops:: ResourceApplyRMSProp

"*var" را طبق الگوریتم RMSProp به روز کنید.

tensorflow:: ops:: ResourceSparseApplyAdadelta

var: باید از یک متغیر () باشد.

tensorflow:: ops:: ResourceSparseApplyAdagrad

طبق طرح adagrad ورودی های مربوطه را در '*var' و '*accum' به روز کنید.

tensorflow:: ops:: ResourceSparseApplyAdagradDA

ورودی‌های «*var» و «*accum» را طبق طرح آداگراد پروگزیمال به‌روزرسانی کنید.

tensorflow:: ops:: ResourceSparseApplyCenteredRMSProp

"*var" را مطابق با الگوریتم RMSProp متمرکز به روز کنید.

tensorflow:: ops:: ResourceSparseApplyFtrl

ورودی های مربوطه را در '*var' طبق طرح Ftrl-proximal به روز کنید.

tensorflow:: ops:: ResourceSparseApplyFtrlV2

ورودی های مربوطه را در '*var' طبق طرح Ftrl-proximal به روز کنید.

tensorflow:: ops:: ResourceSparseApplyKerasMomentum

طبق طرح حرکت، ورودی‌های مربوطه را در «*var» و «*accum» به‌روزرسانی کنید.

tensorflow:: ops:: ResourceSparseApplyMomentum

طبق طرح حرکت، ورودی‌های مربوطه را در «*var» و «*accum» به‌روزرسانی کنید.

tensorflow:: ops:: ResourceSparseApplyProximalAdagrad

ورودی های به روز رسانی پراکنده در '*var' و '*accum' طبق الگوریتم FOBOS.

tensorflow:: ops:: ResourceSparseApplyProximalGradientDescent

به‌روزرسانی پراکنده '*var' به عنوان الگوریتم FOBOS با نرخ یادگیری ثابت.

tensorflow:: ops:: ResourceSparseApplyRMSProp

"*var" را طبق الگوریتم RMSProp به روز کنید.

tensorflow:: ops:: SparseApplyAdadelta

var: باید از یک متغیر () باشد.

tensorflow:: ops:: SparseApplyAdagrad

طبق طرح adagrad ورودی های مربوطه را در '*var' و '*accum' به روز کنید.

tensorflow:: ops:: SparseApplyAdagradDA

ورودی‌های «*var» و «*accum» را طبق طرح آداگراد پروگزیمال به‌روزرسانی کنید.

tensorflow:: ops:: SparseApplyCenteredRMSProp

"*var" را مطابق با الگوریتم RMSProp متمرکز به روز کنید.

tensorflow:: ops:: SparseApplyFtrl

ورودی های مربوطه را در '*var' طبق طرح Ftrl-proximal به روز کنید.

tensorflow:: ops:: SparseApplyFtrlV2

ورودی های مربوطه را در '*var' طبق طرح Ftrl-proximal به روز کنید.

tensorflow:: ops:: SparseApplyMomentum

طبق طرح حرکت، ورودی‌های مربوطه را در «*var» و «*accum» به‌روزرسانی کنید.

tensorflow:: ops:: SparseApplyProximalAdagrad

ورودی های به روز رسانی پراکنده در '*var' و '*accum' طبق الگوریتم FOBOS.

tensorflow:: ops:: SparseApplyProximalGradientDescent

به‌روزرسانی پراکنده '*var' به عنوان الگوریتم FOBOS با نرخ یادگیری ثابت.

tensorflow:: ops:: SparseApplyRMSProp

"*var" را طبق الگوریتم RMSProp به روز کنید.