org.tensorflow.op.train

ชั้นเรียน

Accumulatorใช้ไล่ระดับ ใช้การไล่ระดับสีกับตัวสะสมที่กำหนด
ตัวสะสมจำนวนสะสม ส่งกลับจำนวนการไล่ระดับสีที่รวมอยู่ในตัวสะสมที่กำหนด
AccumulatorSetGlobalขั้นตอน อัพเดตตัวสะสมด้วยค่าใหม่สำหรับ global_step
AccumulatorTakeGradient <T ขยาย TType > แยกการไล่ระดับสีเฉลี่ยใน ConditionalAccumulator ที่กำหนด
ApplyAdadelta <T ขยาย TType > อัปเดต '*var' ตามรูปแบบ adadelta
ApplyAdadelta.ตัวเลือก คุณลักษณะเพิ่มเติมสำหรับ ApplyAdadelta
ApplyAdagrad <T ขยาย TType > อัปเดต '*var' ตามรูปแบบ adagrad
ApplyAdagrad.ตัวเลือก คุณลักษณะเพิ่มเติมสำหรับ ApplyAdagrad
ApplyAdagradDa <T ขยาย TType > อัปเดต '*var' ตามรูปแบบ adagrad ที่ใกล้เคียง
ApplyAdagradDa.Options คุณลักษณะเพิ่มเติมสำหรับ ApplyAdagradDa
ApplyAdagradV2 <T ขยาย TType > อัปเดต '*var' ตามรูปแบบ adagrad
ApplyAdagradV2.ตัวเลือก แอ็ตทริบิวต์ทางเลือกสำหรับ ApplyAdagradV2
ApplyAdam <T ขยาย TType > อัปเดต '*var' ตามอัลกอริทึมของ Adam
ApplyAdam.ตัวเลือก คุณลักษณะเพิ่มเติมสำหรับ ApplyAdam
ApplyAdaMax <T ขยาย TType > อัปเดต '*var' ตามอัลกอริทึม AdaMax
ApplyAdaMax.ตัวเลือก คุณลักษณะเพิ่มเติมสำหรับ ApplyAdaMax
ApplyAddSign <T ขยาย TType > อัปเดต '*var' ตามการอัปเดต AddSign
ApplyAddSign.Options คุณลักษณะเพิ่มเติมสำหรับ ApplyAddSign
ApplyCenteredRmsProp <T ขยาย TType > อัปเดต '*var' ตามอัลกอริทึม RMSProp ที่อยู่กึ่งกลาง
ApplyCenteredRmsProp.Options แอ็ตทริบิวต์ทางเลือกสำหรับ ApplyCenteredRmsProp
ApplyFtrl <T ขยาย TType > อัปเดต '*var' ตามรูปแบบ Ftrl-proximal
ApplyFtrl.ตัวเลือก คุณลักษณะทางเลือกสำหรับ ApplyFtrl
ApplyGradientDescent <T ขยาย TType > อัปเดต '*var' โดยลบ 'alpha' * 'delta' ออกจากมัน
ApplyGradientDescent.ตัวเลือก คุณลักษณะเพิ่มเติมสำหรับ ApplyGradientDescent
ใช้โมเมนตัม <T ขยาย TType > อัปเดต '*var' ตามรูปแบบโมเมนตัม
ใช้โมเมนตัมตัวเลือก แอตทริบิวต์เพิ่มเติมสำหรับ ApplyMomentum
ApplyPowerSign <T ขยาย TType > อัปเดต '*var' ตามการอัปเดต AddSign
ApplyPowerSign.Options แอ็ตทริบิวต์ทางเลือกสำหรับ ApplyPowerSign
ApplyProximalAdagrad <T ขยาย TType > อัปเดต '*var' และ '*accum' ตาม FOBOS ด้วยอัตราการเรียนรู้ของ Adagrad
ApplyProximalAdagrad.Options คุณลักษณะเพิ่มเติมสำหรับ ApplyProximalAdagrad
ApplyProximalGradientDescent <T ขยาย TType > อัปเดต '*var' เป็นอัลกอริทึม FOBOS ด้วยอัตราการเรียนรู้คงที่
ใช้ ProximalGradientDescent.Options แอ็ตทริบิวต์ทางเลือกสำหรับ ApplyProximalGradientDescent
ApplyRmsProp <T ขยาย TType > อัปเดต '*var' ตามอัลกอริทึม RMSProp
ApplyRmsProp.Options แอ็ตทริบิวต์ทางเลือกสำหรับ ApplyRmsProp
BatchMatMul <T ขยาย TType > คูณเทนเซอร์สองตัวเป็นชุด
BatchMatMul.ตัวเลือก คุณลักษณะทางเลือกสำหรับ BatchMatMul
ComputeBatchSize คำนวณขนาดแบตช์แบบคงที่ของชุดข้อมูลโดยไม่ใช้แบตช์บางส่วน
ตัวสะสมแบบมีเงื่อนไข ตัวสะสมแบบมีเงื่อนไขสำหรับการรวมการไล่ระดับสี
ConditionalAccumulator.ตัวเลือก แอ็ตทริบิวต์ทางเลือกสำหรับ ConditionalAccumulator
สร้าง VocabRemapping กำหนดเส้นทางไปยังไฟล์คำศัพท์ทั้งเก่าและใหม่ ส่งคืน Tensor ของการแมปใหม่

ความยาว `num_new_vocab` โดยที่ `remapping[i]` มีหมายเลขแถวในคำศัพท์เก่าที่สอดคล้องกับแถว `i` ในคำศัพท์ใหม่ (เริ่มต้นที่บรรทัด `new_vocab_offset` และไปจนถึงเอนทิตี `num_new_vocab`) หรือ `- 1` ถ้ารายการ `i` ในคำศัพท์ใหม่ไม่ได้อยู่ในคำศัพท์เก่า

สร้าง VocabRemapping.Options แอ็ตทริบิวต์ทางเลือกสำหรับ GenerateVocabRemapping
ผสานV2จุดตรวจ เฉพาะรูปแบบ V2: รวมไฟล์ข้อมูลเมตาของจุดตรวจที่แบ่งส่วน
MergeV2Checkpoints.ตัวเลือก คุณลักษณะทางเลือกสำหรับ MergeV2Checkpoints
เน็กเทรน การฝึกอบรมผ่านการสุ่มตัวอย่างเชิงลบ
PreventGradient <T ขยาย TType > สหกรณ์ข้อมูลประจำตัวที่ทำให้เกิดข้อผิดพลาดหากมีการร้องขอการไล่ระดับสี
PreventGradient.ตัวเลือก แอ็ตทริบิวต์ทางเลือกสำหรับ PreventGradient
ResourceAccumulatorApplyGradient ใช้การไล่ระดับสีกับตัวสะสมที่กำหนด
ResourceAccumulatorNumสะสม ส่งกลับจำนวนการไล่ระดับสีที่รวมอยู่ในตัวสะสมที่กำหนด
ResourceAccumulatorSetGlobalStep อัพเดตตัวสะสมด้วยค่าใหม่สำหรับ global_step
ResourceAccumulatorTakeGradient <T ขยาย TType > แยกการไล่ระดับสีเฉลี่ยใน ConditionalAccumulator ที่กำหนด
ทรัพยากรสมัครAdadelta อัปเดต '*var' ตามรูปแบบ adadelta
ResourceApplyAdadelta.Options แอ็ตทริบิวต์ทางเลือกสำหรับ ResourceApplyAdadelta
ResourceApplyAdagrad อัปเดต '*var' ตามรูปแบบ adagrad
ResourceApplyAdagrad.ตัวเลือก แอ็ตทริบิวต์ทางเลือกสำหรับ ResourceApplyAdagrad
ทรัพยากรนำไปใช้AdagradDa อัปเดต '*var' ตามรูปแบบ adagrad ที่ใกล้เคียง
ResourceApplyAdagradDa.Options แอ็ตทริบิวต์ทางเลือกสำหรับ ResourceApplyAdagradDa
ResourceApplyอดัม อัปเดต '*var' ตามอัลกอริทึมของ Adam
ResourceApplyAdam.Options แอ็ตทริบิวต์ทางเลือกสำหรับ ResourceApplyAdam
ResourceApplyAdaMax อัปเดต '*var' ตามอัลกอริทึม AdaMax
ResourceApplyAdaMax.Options แอ็ตทริบิวต์ทางเลือกสำหรับ ResourceApplyAdaMax
ResourceApplyAdamWithAmsgrad อัปเดต '*var' ตามอัลกอริทึมของ Adam
ResourceApplyAdamWithAmsgrad.Options แอ็ตทริบิวต์ทางเลือกสำหรับ ResourceApplyAdamWithAmsgrad
ResourceApplyAddSign อัปเดต '*var' ตามการอัปเดต AddSign
ResourceApplyAddSign.Options แอ็ตทริบิวต์ทางเลือกสำหรับ ResourceApplyAddSign
ResourceApplyCenteredRmsProp อัปเดต '*var' ตามอัลกอริทึม RMSProp ที่อยู่กึ่งกลาง
ResourceApplyCenteredRmsProp.Options แอ็ตทริบิวต์ทางเลือกสำหรับ ResourceApplyCenteredRmsProp
ResourceApplyFtrl อัปเดต '*var' ตามรูปแบบ Ftrl-proximal
ResourceApplyFtrl ตัวเลือก แอ็ตทริบิวต์ทางเลือกสำหรับ ResourceApplyFtrl
ResourceApplyGradientDescent อัปเดต '*var' โดยลบ 'alpha' * 'delta' ออกจากมัน
ResourceApplyGradientDescent.Options แอ็ตทริบิวต์ทางเลือกสำหรับ ResourceApplyGradientDescent
ทรัพยากรใช้KerasMomentum อัปเดต '*var' ตามรูปแบบโมเมนตัม
ResourceApplyKerasMomentum.Options แอ็ตทริบิวต์ทางเลือกสำหรับ ResourceApplyKerasMomentum
ทรัพยากรใช้โมเมนตัม อัปเดต '*var' ตามรูปแบบโมเมนตัม
ResourceApplyMomentum.ตัวเลือก แอ็ตทริบิวต์ทางเลือกสำหรับ ResourceApplyMomentum
ResourceApplyPowerSign อัปเดต '*var' ตามการอัปเดต AddSign
ResourceApplyPowerSign.Options แอ็ตทริบิวต์ทางเลือกสำหรับ ResourceApplyPowerSign
ResourceApplyProximalAdagrad อัปเดต '*var' และ '*accum' ตาม FOBOS ด้วยอัตราการเรียนรู้ของ Adagrad
ResourceApplyProximalAdagrad.Options แอ็ตทริบิวต์ทางเลือกสำหรับ ResourceApplyProximalAdagrad
ทรัพยากรใช้ ProximalGradientDescent อัปเดต '*var' เป็นอัลกอริทึม FOBOS ด้วยอัตราการเรียนรู้คงที่
ResourceApplyProximalGradientDescent.Options แอ็ตทริบิวต์ทางเลือกสำหรับ ResourceApplyProximalGradientDescent
ResourceApplyRmsProp อัปเดต '*var' ตามอัลกอริทึม RMSProp
ResourceApplyRmsProp.Options แอ็ตทริบิวต์ทางเลือกสำหรับ ResourceApplyRmsProp
ทรัพยากรแบบมีเงื่อนไขสะสม ตัวสะสมแบบมีเงื่อนไขสำหรับการรวมการไล่ระดับสี
ResourceConditionalAccumulator ตัวเลือก แอ็ตทริบิวต์ทางเลือกสำหรับ ResourceConditionalAccumulator
ทรัพยากรSparseApplyAdadelta var: ควรมาจากตัวแปร ()
ResourceSparseApplyAdadelta.Options แอ็ตทริบิวต์ทางเลือกสำหรับ ResourceSparseApplyAdadelta
ทรัพยากรSparseApplyAdagrad อัปเดตรายการที่เกี่ยวข้องใน '*var' และ '*accum' ตามรูปแบบ adagrad
ResourceSparseApplyAdagrad.Options แอ็ตทริบิวต์ทางเลือกสำหรับ ResourceSparseApplyAdagrad
ทรัพยากรSparseApplyAdagradDa อัปเดตรายการใน '*var' และ '*accum' ตามรูปแบบ adagrad ที่ใกล้เคียง
ResourceSparseApplyAdagradDa.Options แอ็ตทริบิวต์ทางเลือกสำหรับ ResourceSparseApplyAdagradDa
ทรัพยากรSparseApplyAdagradV2 อัปเดตรายการที่เกี่ยวข้องใน '*var' และ '*accum' ตามรูปแบบ adagrad
ResourceSparseApplyAdagradV2.ตัวเลือก แอ็ตทริบิวต์ทางเลือกสำหรับ ResourceSparseApplyAdagradV2
ResourceSparseApplyCenteredRmsProp อัปเดต '*var' ตามอัลกอริทึม RMSProp ที่อยู่กึ่งกลาง
ResourceSparseApplyCenteredRmsProp.Options แอ็ตทริบิวต์ทางเลือกสำหรับ ResourceSparseApplyCenteredRmsProp
ทรัพยากรSparseApplyFtrl อัปเดตรายการที่เกี่ยวข้องใน '*var' ตามรูปแบบ Ftrl-proximal
ResourceSparseApplyFtrl.Options แอ็ตทริบิวต์ทางเลือกสำหรับ ResourceSparseApplyFtrl
ทรัพยากรSparseApplyKerasMomentum อัปเดตรายการที่เกี่ยวข้องใน '*var' และ '*accum' ตามรูปแบบโมเมนตัม
ResourceSparseApplyKerasMomentum.Options แอ็ตทริบิวต์ทางเลือกสำหรับ ResourceSparseApplyKerasMomentum
ทรัพยากรSparseApplyMomentum อัปเดตรายการที่เกี่ยวข้องใน '*var' และ '*accum' ตามรูปแบบโมเมนตัม
ResourceSparseApplyMomentum.Options แอ็ตทริบิวต์ทางเลือกสำหรับ ResourceSparseApplyMomentum
ทรัพยากรSparseApplyProximalAdagrad รายการอัปเดตแบบกระจัดกระจายใน '*var' และ '*accum' ตามอัลกอริทึม FOBOS
ResourceSparseApplyProximalAdagrad.Options แอ็ตทริบิวต์ทางเลือกสำหรับ ResourceSparseApplyProximalAdagrad
ทรัพยากรSparseApplyProximalGradientDescent การอัปเดตแบบกระจัดกระจาย '*var' เป็นอัลกอริทึม FOBOS พร้อมอัตราการเรียนรู้คงที่
ResourceSparseApplyProximalGradientDescent.Options แอ็ตทริบิวต์ทางเลือกสำหรับ ResourceSparseApplyProximalGradientDescent
ResourceSparseApplyRmsProp อัปเดต '*var' ตามอัลกอริทึม RMSProp
ResourceSparseApplyRmsProp.Options แอ็ตทริบิวต์ทางเลือกสำหรับ ResourceSparseApplyRmsProp
คืนค่า คืนค่าเทนเซอร์จากจุดตรวจ V2
RestoreSlice <T ขยาย TType > คืนค่าเทนเซอร์จากไฟล์จุดตรวจ
RestoreSlice ตัวเลือก แอ็ตทริบิวต์ทางเลือกสำหรับ RestoreSlice
บันทึก บันทึกเทนเซอร์ในรูปแบบจุดตรวจ V2
บันทึกสไลซ์ บันทึกชิ้นส่วนเทนเซอร์อินพุตลงในดิสก์
SdcaFprint คำนวณลายนิ้วมือของสตริงอินพุต
SdcaOptimizer เวอร์ชันกระจายของเครื่องมือเพิ่มประสิทธิภาพ Stochastic Dual Coordinate Ascent (SDCA) สำหรับ

โมเดลเชิงเส้นที่มีการทำให้เป็นมาตรฐาน L1 + L2

SdcaOptimizer ตัวเลือก แอ็ตทริบิวต์ทางเลือกสำหรับ SdcaOptimizer
SdcaShrinkL1 ใช้ขั้นตอนการย่อขนาดการทำให้เป็นมาตรฐาน L1 กับพารามิเตอร์
SparseApplyAdadelta <T ขยาย TType > var: ควรมาจากตัวแปร ()
SparseApplyAdadelta.Options แอ็ตทริบิวต์ทางเลือกสำหรับ SparseApplyAdadelta
SparseApplyAdagrad <T ขยาย TType > อัปเดตรายการที่เกี่ยวข้องใน '*var' และ '*accum' ตามรูปแบบ adagrad
SparseApplyAdagrad.ตัวเลือก แอ็ตทริบิวต์ทางเลือกสำหรับ SparseApplyAdagrad
SparseApplyAdagradDa <T ขยาย TType > อัปเดตรายการใน '*var' และ '*accum' ตามรูปแบบ adagrad ที่ใกล้เคียง
SparseApplyAdagradDa.Options แอ็ตทริบิวต์ทางเลือกสำหรับ SparseApplyAdagradDa
SparseApplyCenteredRmsProp <T ขยาย TType > อัปเดต '*var' ตามอัลกอริทึม RMSProp ที่อยู่กึ่งกลาง
SparseApplyCenteredRmsProp.Options แอ็ตทริบิวต์ทางเลือกสำหรับ SparseApplyCenteredRmsProp
SparseApplyFtrl <T ขยาย TType > อัปเดตรายการที่เกี่ยวข้องใน '*var' ตามรูปแบบ Ftrl-proximal
SparseApplyFtrl.ตัวเลือก แอ็ตทริบิวต์ทางเลือกสำหรับ SparseApplyFtrl
SparseApplyMomentum <T ขยาย TType > อัปเดตรายการที่เกี่ยวข้องใน '*var' และ '*accum' ตามรูปแบบโมเมนตัม
SparseApplyMomentum.ตัวเลือก แอ็ตทริบิวต์ทางเลือกสำหรับ SparseApplyMomentum
SparseApplyProximalAdagrad <T ขยาย TType > รายการอัปเดตแบบกระจัดกระจายใน '*var' และ '*accum' ตามอัลกอริทึม FOBOS
SparseApplyProximalAdagrad.Options แอ็ตทริบิวต์ทางเลือกสำหรับ SparseApplyProximalAdagrad
SparseApplyProximalGradientDescent <T ขยาย TType > การอัปเดตแบบกระจัดกระจาย '*var' เป็นอัลกอริทึม FOBOS พร้อมอัตราการเรียนรู้คงที่
SparseApplyProximalGradientDescent.Options แอ็ตทริบิวต์ทางเลือกสำหรับ SparseApplyProximalGradientDescent
SparseApplyRmsProp <T ขยาย TType > อัปเดต '*var' ตามอัลกอริทึม RMSProp
SparseApplyRmsProp.Options แอ็ตทริบิวต์ทางเลือกสำหรับ SparseApplyRmsProp
TileGrad <T ขยาย TType > ส่งกลับค่าการไล่ระดับสีของ "ไทล์"