Ops การฝึกอบรม

สรุป

ชั้นเรียน

tensorflow :: ops :: ApplyAdadelta

อัปเดต '* var' ตามแบบแผน adadelta

tensorflow :: ops :: ApplyAdagrad

อัปเดต '* var' ตามโครงการ adagrad

tensorflow :: ops :: ApplyAdagradDA

อัปเดต '* var' ตามแบบแผน adagrad ใกล้เคียง

tensorflow :: ops :: ApplyAdam

อัปเดต '* var' ตามอัลกอริทึม Adam

tensorflow :: ops :: ApplyAddSign

อัปเดต '* var' ตามการอัปเดต AddSign

tensorflow :: ops :: ApplyCenteredRMSProp

อัปเดต '* var' ตามอัลกอริทึม RMSProp ที่อยู่ตรงกลาง

tensorflow :: ops :: ApplyFtrl

อัปเดต '* var' ตามรูปแบบ Ftrl-proximal

เทนเซอร์โฟลว์ :: ops :: ApplyFtrlV2

อัปเดต '* var' ตามรูปแบบ Ftrl-proximal

เทนเซอร์โฟลว์ :: ops :: ApplyGradientDescent

อัปเดต "* var" โดยการลบ "alpha" * "delta" ออก

tensorflow :: ops :: ApplyMomentum

อัปเดต '* var' ตามรูปแบบโมเมนตัม

tensorflow :: ops :: ApplyPowerSign

อัปเดต '* var' ตามการอัปเดต AddSign

tensorflow :: ops :: ApplyProximalAdagrad

อัปเดต '* var' และ '* สะสม' ตาม FOBOS ด้วยอัตราการเรียนรู้ของ Adagrad

tensorflow :: ops :: ApplyProximalGradientDescent

อัปเดต '* var' เป็นอัลกอริทึม FOBOS พร้อมอัตราการเรียนรู้คงที่

เทนเซอร์โฟลว์ :: ops :: ApplyRMSProp

อัปเดต '* var' ตามอัลกอริทึม RMSProp

tensorflow :: ops :: ResourceApplyAdadelta

อัปเดต '* var' ตามแบบแผน adadelta

tensorflow :: ops :: ResourceApplyAdagrad

อัปเดต '* var' ตามโครงการ adagrad

tensorflow :: ops :: ResourceApplyAdagradDA

อัปเดต '* var' ตามแบบแผน adagrad ใกล้เคียง

tensorflow :: ops :: ResourceApplyAdam

อัปเดต '* var' ตามอัลกอริทึม Adam

tensorflow :: ops :: ResourceApplyAdamWithAmsgrad

อัปเดต '* var' ตามอัลกอริทึม Adam

tensorflow :: ops :: ResourceApplyAddSign

อัปเดต '* var' ตามการอัปเดต AddSign

tensorflow :: ops :: ResourceApplyCenteredRMSProp

อัปเดต '* var' ตามอัลกอริทึม RMSProp ที่อยู่ตรงกลาง

tensorflow :: ops :: ResourceApplyFtrl

อัปเดต '* var' ตามรูปแบบ Ftrl-proximal

tensorflow :: ops :: ResourceApplyFtrlV2

อัปเดต '* var' ตามรูปแบบ Ftrl-proximal

tensorflow :: ops :: ResourceApplyGradientDescent

อัปเดต "* var" โดยการลบ "alpha" * "delta" ออก

tensorflow :: ops :: ResourceApplyKerasMomentum

อัปเดต '* var' ตามรูปแบบโมเมนตัม

tensorflow :: ops :: ResourceApplyMomentum

อัปเดต '* var' ตามรูปแบบโมเมนตัม

tensorflow :: ops :: ResourceApplyPowerSign

อัปเดต '* var' ตามการอัปเดต AddSign

tensorflow :: ops :: ResourceApplyProximalAdagrad

อัปเดต '* var' และ '* สะสม' ตาม FOBOS ด้วยอัตราการเรียนรู้ของ Adagrad

tensorflow :: ops :: ResourceApplyProximalGradientDescent

อัปเดต '* var' เป็นอัลกอริทึม FOBOS พร้อมอัตราการเรียนรู้คงที่

tensorflow :: ops :: ResourceApplyRMSProp

อัปเดต '* var' ตามอัลกอริทึม RMSProp

tensorflow :: ops :: ResourceSparseApplyAdadelta

var: ควรมาจากตัวแปร ()

tensorflow :: ops :: ResourceSparseApplyAdagrad

อัปเดตรายการที่เกี่ยวข้องใน '* var' และ '* collect' ตามโครงการ adagrad

tensorflow :: ops :: ResourceSparseApplyAdagradDA

อัปเดตรายการใน '* var' และ '* collect' ตามแบบแผน adagrad ใกล้เคียง

tensorflow :: ops :: ResourceSparseApplyCenteredRMSProp

อัปเดต '* var' ตามอัลกอริทึม RMSProp ที่อยู่ตรงกลาง

tensorflow :: ops :: ResourceSparseApplyFtrl

อัปเดตรายการที่เกี่ยวข้องใน '* var' ตามรูปแบบ Ftrl-proximal

tensorflow :: ops :: ResourceSparseApplyFtrlV2

อัปเดตรายการที่เกี่ยวข้องใน '* var' ตามรูปแบบ Ftrl-proximal

tensorflow :: ops :: ResourceSparseApplyKerasMomentum

อัปเดตรายการที่เกี่ยวข้องใน '* var' และ '* collect' ตามรูปแบบโมเมนตัม

tensorflow :: ops :: ResourceSparseApplyMomentum

อัปเดตรายการที่เกี่ยวข้องใน '* var' และ '* สะสม' ตามรูปแบบโมเมนตัม

tensorflow :: ops :: ResourceSparseApplyProximalAdagrad

รายการอัปเดตแบบกระจัดกระจายใน '* var' และ '* collect' ตามอัลกอริทึม FOBOS

tensorflow :: ops :: ResourceSparseApplyProximalGradientDescent

อัปเดตแบบกระจัดกระจาย '* var' เป็นอัลกอริทึม FOBOS ที่มีอัตราการเรียนรู้คงที่

tensorflow :: ops :: ResourceSparseApplyRMSProp

อัปเดต '* var' ตามอัลกอริทึม RMSProp

tensorflow :: ops :: SparseApplyAdadelta

var: ควรมาจากตัวแปร ()

tensorflow :: ops :: SparseApplyAdagrad

อัปเดตรายการที่เกี่ยวข้องใน '* var' และ '* collect' ตามโครงการ adagrad

tensorflow :: ops :: SparseApplyAdagradDA

อัปเดตรายการใน '* var' และ '* collect' ตามแบบแผน adagrad ใกล้เคียง

tensorflow :: ops :: SparseApplyCenteredRMSProp

อัปเดต '* var' ตามอัลกอริทึม RMSProp ที่อยู่ตรงกลาง

tensorflow :: ops :: SparseApplyFtrl

อัปเดตรายการที่เกี่ยวข้องใน '* var' ตามรูปแบบ Ftrl-proximal

tensorflow :: ops :: SparseApplyFtrlV2

อัปเดตรายการที่เกี่ยวข้องใน '* var' ตามรูปแบบ Ftrl-proximal

tensorflow :: ops :: SparseApplyMomentum

อัปเดตรายการที่เกี่ยวข้องใน '* var' และ '* สะสม' ตามรูปแบบโมเมนตัม

tensorflow :: ops :: SparseApplyProximalAdagrad

รายการอัปเดตแบบกระจัดกระจายใน '* var' และ '* collect' ตามอัลกอริทึม FOBOS

tensorflow :: ops :: SparseApplyProximalGradientDescent

อัปเดตแบบกระจัดกระจาย '* var' เป็นอัลกอริทึม FOBOS ที่มีอัตราการเรียนรู้คงที่

tensorflow :: ops :: SparseApplyRMSProp

อัปเดต '* var' ตามอัลกอริทึม RMSProp