از اینکه با Google I/O تنظیم کردید متشکریم. مشاهده همه جلسات در صورت تقاضا تماشا کنید

آموزشهای عملیاتی

خلاصه

کلاس ها

tensorflow :: ops :: ApplyAdadelta

"* var" را مطابق با طرح adadelta به روز کنید.

tensorflow :: ops :: ApplyAdagrad

"* var" را مطابق با طرح آداگراد به روز کنید.

tensorflow :: ops :: ApplyAdagradDA

"* var" را مطابق با طرح پروگزیمال آداگراد به روز کنید.

tensorflow :: ops :: ApplyAdam

"* var" را با توجه به الگوریتم Adam به روز کنید.

tensorflow :: ops :: ApplyAddSign

"* var" را با توجه به به روزرسانی AddSign به روز کنید.

tensorflow :: ops :: ApplyCenteredRMSProp

"* var" را با توجه به الگوریتم RMSProp در مرکز به روز کنید.

tensorflow :: ops :: ApplyFtrl

* * var را مطابق با طرح Ftrl-proximal به روز کنید.

tensorflow :: ops :: ApplyFtrlV2

* * var را مطابق با طرح Ftrl-proximal به روز کنید.

tensorflow :: ops :: ApplyGradientDescent

"* var" را با کم کردن "alpha" * "delta" از آن به روز کنید.

tensorflow :: ops :: ApplyMomentum

"* var" را مطابق با طرح حرکت به روز کنید.

tensorflow :: ops :: ApplyPowerSign

"* var" را با توجه به به روزرسانی AddSign به روز کنید.

tensorflow :: ops :: ApplyProximalAdagrad

با توجه به FOBOS با نرخ یادگیری آداگراد ، "* var" و "* تجمع" را به روز کنید.

tensorflow :: ops :: ApplyProximalGradientDescent

'* var' را به عنوان الگوریتم FOBOS با میزان یادگیری ثابت به روز کنید.

tensorflow :: ops :: ApplyRMSProp

"* var" را با توجه به الگوریتم RMSProp به روز کنید.

tensorflow :: ops :: ResourceApplyAdadelta

"* var" را مطابق با طرح adadelta به روز کنید.

tensorflow :: ops :: ResourceApplyAdagrad

"* var" را مطابق با طرح آداگراد به روز کنید.

tensorflow :: ops :: ResourceApplyAdagradDA

"* var" را مطابق با طرح پروگزیمال آداگراد به روز کنید.

tensorflow :: ops :: ResourceApplyAdam

"* var" را با توجه به الگوریتم Adam به روز کنید.

tensorflow :: ops :: ResourceApplyAdamWithAmsgrad

"* var" را با توجه به الگوریتم Adam به روز کنید.

tensorflow :: ops :: ResourceApplyAddSign

"* var" را با توجه به به روزرسانی AddSign به روز کنید.

tensorflow :: ops :: ResourceApplyCenteredRMSProp

"* var" را با توجه به الگوریتم RMSProp در مرکز به روز کنید.

tensorflow :: ops :: ResourceApplyFtrl

* * var را مطابق با طرح Ftrl-proximal به روز کنید.

tensorflow :: ops :: ResourceApplyFtrlV2

* * var را مطابق با طرح Ftrl-proximal به روز کنید.

tensorflow :: ops :: ResourceApplyGradientDescent

"* var" را با کم کردن "alpha" * "delta" از آن به روز کنید.

tensorflow :: ops :: ResourceApplyKerasMomentum

"* var" را مطابق با طرح حرکت به روز کنید.

tensorflow :: ops :: ResourceApplyMomentum

"* var" را مطابق با طرح حرکت به روز کنید.

tensorflow :: ops :: ResourceApplyPowerSign

"* var" را با توجه به به روزرسانی AddSign به روز کنید.

tensorflow :: ops :: ResourceApplyProximalAdagrad

با توجه به FOBOS با نرخ یادگیری آداگراد ، "* var" و "* تجمع" را به روز کنید.

tensorflow :: ops :: ResourceApplyProximalGradientDescent

'* var' را به عنوان الگوریتم FOBOS با میزان یادگیری ثابت به روز کنید.

tensorflow :: ops :: ResourceApplyRMSProp

"* var" را با توجه به الگوریتم RMSProp به روز کنید.

tensorflow :: ops :: ResourceSparseApplyAdadelta

var: باید از یک متغیر () باشد.

tensorflow :: ops :: ResourceSparseApplyAdagrad

مطابق با طرح adagrad ، ورودی های مربوطه را در "* var" و "* تجمع" به روز کنید.

tensorflow :: ops :: ResourceSparseApplyAdagradDA

مطابق با طرح proximal adagrad ، ورودی ها را در "* var" و "* تجمع" به روز کنید.

tensorflow :: ops :: ResourceSparseApplyCenteredRMSProp

"* var" را با توجه به الگوریتم RMSProp در مرکز به روز کنید.

tensorflow :: ops :: ResourceSparseApplyFtrl

مطابق طرح Ftrl-proximal ورودی های مربوطه را در '* var' به روز کنید.

tensorflow :: ops :: ResourceSparseApplyFtrlV2

مطابق طرح Ftrl-proximal ورودی های مربوطه را در '* var' به روز کنید.

tensorflow :: ops :: ResourceSparseApplyKerasMomentum

مطابق با طرح حرکت ، ورودی های مربوطه را در "* var" و "* تجمع" به روز کنید.

tensorflow :: ops :: ResourceSparseApplyMomentum

مطابق با طرح حرکت ، ورودی های مربوطه را در "* var" و "* تجمع" به روز کنید.

tensorflow :: ops :: ResourceSparseApplyProximalAdagrad

مطابق الگوریتم FOBOS ورودی های به روزرسانی پراکنده در '* var' و '* تجمع'

tensorflow :: ops :: ResourceSparseApplyProximalGradientDescent

به روزرسانی پراکنده '* var' به عنوان الگوریتم FOBOS با میزان یادگیری ثابت.

tensorflow :: ops :: ResourceSparseApplyRMSProp

"* var" را با توجه به الگوریتم RMSProp به روز کنید.

tensorflow :: ops :: SparseApplyAdadelta

var: باید از یک متغیر () باشد.

tensorflow :: ops :: SparseApplyAdagrad

مطابق با طرح adagrad ، ورودی های مربوطه را در "* var" و "* تجمع" به روز کنید.

tensorflow :: ops :: SparseApplyAdagradDA

مطابق با طرح proximal adagrad ، ورودی ها را در "* var" و "* تجمع" به روز کنید.

tensorflow :: ops :: SparseApplyCenteredRMSProp

"* var" را با توجه به الگوریتم RMSProp در مرکز به روز کنید.

tensorflow :: ops :: SparseApplyFtrl

مطابق طرح Ftrl-proximal ورودی های مربوطه را در '* var' به روز کنید.

tensorflow :: ops :: SparseApplyFtrlV2

مطابق با طرح Ftrl-proximal ، ورودی های مربوطه را در "* var" به روز کنید.

tensorflow :: ops :: SparseApplyMomentum

مطابق با طرح حرکت ، ورودی های مربوطه را در "* var" و "* تجمع" به روز کنید.

tensorflow :: ops :: SparseApplyProximalAdagrad

مطابق الگوریتم FOBOS ورودی های به روزرسانی پراکنده در "* var" و "* تجمع".

tensorflow :: ops :: SparseApplyProximalGradientDescent

به روزرسانی پراکنده '* var' به عنوان الگوریتم FOBOS با میزان یادگیری ثابت.

tensorflow :: ops :: SparseApplyRMSProp

"* var" را با توجه به الگوریتم RMSProp به روز کنید.