آموزشهای عملیاتی
خلاصه
کلاس ها | |
---|---|
tensorflow :: ops :: ApplyAdadelta | "* var" را مطابق با طرح adadelta به روز کنید. |
tensorflow :: ops :: ApplyAdagrad | "* var" را مطابق با طرح آداگراد به روز کنید. |
tensorflow :: ops :: ApplyAdagradDA | "* var" را مطابق با طرح پروگزیمال آداگراد به روز کنید. |
tensorflow :: ops :: ApplyAdam | "* var" را با توجه به الگوریتم Adam به روز کنید. |
tensorflow :: ops :: ApplyAddSign | "* var" را با توجه به به روزرسانی AddSign به روز کنید. |
tensorflow :: ops :: ApplyCenteredRMSProp | "* var" را با توجه به الگوریتم RMSProp در مرکز به روز کنید. |
tensorflow :: ops :: ApplyFtrl | * * var را مطابق با طرح Ftrl-proximal به روز کنید. |
tensorflow :: ops :: ApplyFtrlV2 | * * var را مطابق با طرح Ftrl-proximal به روز کنید. |
tensorflow :: ops :: ApplyGradientDescent | "* var" را با کم کردن "alpha" * "delta" از آن به روز کنید. |
tensorflow :: ops :: ApplyMomentum | "* var" را مطابق با طرح حرکت به روز کنید. |
tensorflow :: ops :: ApplyPowerSign | "* var" را با توجه به به روزرسانی AddSign به روز کنید. |
tensorflow :: ops :: ApplyProximalAdagrad | با توجه به FOBOS با نرخ یادگیری آداگراد ، "* var" و "* تجمع" را به روز کنید. |
tensorflow :: ops :: ApplyProximalGradientDescent | '* var' را به عنوان الگوریتم FOBOS با میزان یادگیری ثابت به روز کنید. |
tensorflow :: ops :: ApplyRMSProp | "* var" را با توجه به الگوریتم RMSProp به روز کنید. |
tensorflow :: ops :: ResourceApplyAdadelta | "* var" را مطابق با طرح adadelta به روز کنید. |
tensorflow :: ops :: ResourceApplyAdagrad | "* var" را مطابق با طرح آداگراد به روز کنید. |
tensorflow :: ops :: ResourceApplyAdagradDA | "* var" را مطابق با طرح پروگزیمال آداگراد به روز کنید. |
tensorflow :: ops :: ResourceApplyAdam | "* var" را با توجه به الگوریتم Adam به روز کنید. |
tensorflow :: ops :: ResourceApplyAdamWithAmsgrad | "* var" را با توجه به الگوریتم Adam به روز کنید. |
tensorflow :: ops :: ResourceApplyAddSign | "* var" را با توجه به به روزرسانی AddSign به روز کنید. |
tensorflow :: ops :: ResourceApplyCenteredRMSProp | "* var" را با توجه به الگوریتم RMSProp در مرکز به روز کنید. |
tensorflow :: ops :: ResourceApplyFtrl | * * var را مطابق با طرح Ftrl-proximal به روز کنید. |
tensorflow :: ops :: ResourceApplyFtrlV2 | * * var را مطابق با طرح Ftrl-proximal به روز کنید. |
tensorflow :: ops :: ResourceApplyGradientDescent | "* var" را با کم کردن "alpha" * "delta" از آن به روز کنید. |
tensorflow :: ops :: ResourceApplyKerasMomentum | "* var" را مطابق با طرح حرکت به روز کنید. |
tensorflow :: ops :: ResourceApplyMomentum | "* var" را مطابق با طرح حرکت به روز کنید. |
tensorflow :: ops :: ResourceApplyPowerSign | "* var" را با توجه به به روزرسانی AddSign به روز کنید. |
tensorflow :: ops :: ResourceApplyProximalAdagrad | با توجه به FOBOS با نرخ یادگیری آداگراد ، "* var" و "* تجمع" را به روز کنید. |
tensorflow :: ops :: ResourceApplyProximalGradientDescent | '* var' را به عنوان الگوریتم FOBOS با میزان یادگیری ثابت به روز کنید. |
tensorflow :: ops :: ResourceApplyRMSProp | "* var" را با توجه به الگوریتم RMSProp به روز کنید. |
tensorflow :: ops :: ResourceSparseApplyAdadelta | var: باید از یک متغیر () باشد. |
tensorflow :: ops :: ResourceSparseApplyAdagrad | مطابق با طرح adagrad ، ورودی های مربوطه را در "* var" و "* تجمع" به روز کنید. |
tensorflow :: ops :: ResourceSparseApplyAdagradDA | مطابق با طرح proximal adagrad ، ورودی ها را در "* var" و "* تجمع" به روز کنید. |
tensorflow :: ops :: ResourceSparseApplyCenteredRMSProp | "* var" را با توجه به الگوریتم RMSProp در مرکز به روز کنید. |
tensorflow :: ops :: ResourceSparseApplyFtrl | مطابق طرح Ftrl-proximal ورودی های مربوطه را در '* var' به روز کنید. |
tensorflow :: ops :: ResourceSparseApplyFtrlV2 | مطابق طرح Ftrl-proximal ورودی های مربوطه را در '* var' به روز کنید. |
tensorflow :: ops :: ResourceSparseApplyKerasMomentum | مطابق با طرح حرکت ، ورودی های مربوطه را در "* var" و "* تجمع" به روز کنید. |
tensorflow :: ops :: ResourceSparseApplyMomentum | مطابق با طرح حرکت ، ورودی های مربوطه را در "* var" و "* تجمع" به روز کنید. |
tensorflow :: ops :: ResourceSparseApplyProximalAdagrad | مطابق الگوریتم FOBOS ورودی های به روزرسانی پراکنده در '* var' و '* تجمع' |
tensorflow :: ops :: ResourceSparseApplyProximalGradientDescent | به روزرسانی پراکنده '* var' به عنوان الگوریتم FOBOS با میزان یادگیری ثابت. |
tensorflow :: ops :: ResourceSparseApplyRMSProp | "* var" را با توجه به الگوریتم RMSProp به روز کنید. |
tensorflow :: ops :: SparseApplyAdadelta | var: باید از یک متغیر () باشد. |
tensorflow :: ops :: SparseApplyAdagrad | مطابق با طرح adagrad ، ورودی های مربوطه را در "* var" و "* تجمع" به روز کنید. |
tensorflow :: ops :: SparseApplyAdagradDA | مطابق با طرح proximal adagrad ، ورودی ها را در "* var" و "* تجمع" به روز کنید. |
tensorflow :: ops :: SparseApplyCenteredRMSProp | "* var" را با توجه به الگوریتم RMSProp در مرکز به روز کنید. |
tensorflow :: ops :: SparseApplyFtrl | مطابق طرح Ftrl-proximal ورودی های مربوطه را در '* var' به روز کنید. |
tensorflow :: ops :: SparseApplyFtrlV2 | مطابق با طرح Ftrl-proximal ، ورودی های مربوطه را در "* var" به روز کنید. |
tensorflow :: ops :: SparseApplyMomentum | مطابق با طرح حرکت ، ورودی های مربوطه را در "* var" و "* تجمع" به روز کنید. |
tensorflow :: ops :: SparseApplyProximalAdagrad | مطابق الگوریتم FOBOS ورودی های به روزرسانی پراکنده در "* var" و "* تجمع". |
tensorflow :: ops :: SparseApplyProximalGradientDescent | به روزرسانی پراکنده '* var' به عنوان الگوریتم FOBOS با میزان یادگیری ثابت. |
tensorflow :: ops :: SparseApplyRMSProp | "* var" را با توجه به الگوریتم RMSProp به روز کنید. |