ResourceApplyAdagrad

ResourceApplyAdagrad คลาสสุดท้ายสาธารณะ

อัปเดต '*var' ตามรูปแบบ adagrad

สะสม += grad * grad var -= lr * grad * (1 / (sqrt(สะสม) + epsilon))

คลาสที่ซ้อนกัน

ระดับ ResourceApplyAdagrad.ตัวเลือก แอ็ตทริบิวต์ทางเลือกสำหรับ ResourceApplyAdagrad

ค่าคงที่

สตริง OP_NAME ชื่อของ op นี้ ซึ่งรู้จักกันในชื่อของเอ็นจิ้นหลัก TensorFlow

วิธีการสาธารณะ

คงที่ <T ขยาย TType > ResourceApplyAdagrad
สร้าง (ขอบเขต ขอบเขต , ตัวดำเนินการ <?> var, ตัวดำเนินการ <?> accum, ตัวดำเนินการ <T> lr, ตัวดำเนินการ <T> เอปไซลอน, ตัวดำเนินการ <T> ผู้สำเร็จการศึกษา, ตัวเลือก... ตัวเลือก)
วิธีการจากโรงงานเพื่อสร้างคลาสที่รวมการดำเนินการ ResourceApplyAdagrad ใหม่
ResourceApplyAdagrad.Options แบบคงที่
updateSlots (บูลีน updateSlots)
ResourceApplyAdagrad.Options แบบคงที่
useLocking (การใช้ล็อคแบบบูลีน)

วิธีการสืบทอด

ค่าคงที่

สตริงสุดท้ายแบบคงที่สาธารณะ OP_NAME

ชื่อของ op นี้ ซึ่งรู้จักกันในชื่อของเอ็นจิ้นหลัก TensorFlow

ค่าคงที่: "ResourceApplyAdagradV2"

วิธีการสาธารณะ

ResourceApplyAdagrad แบบคงที่สาธารณะ สร้าง (ขอบเขต ขอบเขต , ตัวดำเนินการ <?> var, ตัวดำเนินการ <?> accum, ตัวดำเนินการ <T> lr, ตัวดำเนินการ <T> เอปไซลอน, ตัวดำเนินการ <T> ผู้สำเร็จการศึกษา, ตัวเลือก... ตัวเลือก)

วิธีการจากโรงงานเพื่อสร้างคลาสที่รวมการดำเนินการ ResourceApplyAdagrad ใหม่

พารามิเตอร์
ขอบเขต ขอบเขตปัจจุบัน
var ควรมาจากตัวแปร ()
สะสม ควรมาจากตัวแปร ()
ปัจจัยการปรับขนาด ต้องเป็นสเกลาร์
เอปไซลอน ปัจจัยคงที่ ต้องเป็นสเกลาร์
ผู้สำเร็จการศึกษา การไล่ระดับสี
ตัวเลือก มีค่าแอตทริบิวต์ทางเลือก
การส่งคืน
  • อินสแตนซ์ใหม่ของ ResourceApplyAdagrad

ResourceApplyAdagrad.Options สาธารณะแบบคงที่ updateSlots (Boolean updateSlots)

ResourceApplyAdagrad.Options แบบคงที่สาธารณะ useLocking (useLocking แบบบูลีน)

พารามิเตอร์
ใช้ล็อค หากเป็น "จริง" การอัปเดต var และ accum tensor จะได้รับการปกป้องด้วยการล็อค มิฉะนั้นพฤติกรรมจะไม่ได้กำหนดไว้ แต่อาจแสดงความขัดแย้งน้อยลง