SparseApplyAdagradV2

คลาสสุดท้ายสาธารณะ SparseApplyAdagradV2

อัปเดตรายการที่เกี่ยวข้องใน '*var' และ '*accum' ตามรูปแบบ adagrad

นั่นคือสำหรับแถวที่เราได้ grad เราอัพเดต var และ accum ดังนี้: $$accum += grad * grad$$$$var -= lr * grad * (1 / sqrt(accum))$$

คลาสที่ซ้อนกัน

ระดับ SparseApplyAdagradV2.ตัวเลือก แอ็ตทริบิวต์ทางเลือกสำหรับ SparseApplyAdagradV2

วิธีการสาธารณะ

เอาท์พุต <T>
เป็นเอาท์พุต ()
ส่งกลับค่าแฮนเดิลสัญลักษณ์ของเทนเซอร์
คงที่ <T, U ขยายหมายเลข> SparseApplyAdagradV2 <T>
สร้าง (ขอบเขต ขอบเขต , ตัวดำเนินการ <T> var, ตัวดำเนินการ <T> สะสม, ตัวดำเนิน การ <T> lr, ตัวดำเนินการ <T> เอปไซลอน, ตัว ดำเนินการ <T> ผู้สำเร็จการศึกษา, ตัวดำเนินการ <U> ดัชนี, ตัวเลือก... ตัวเลือก)
วิธีการจากโรงงานเพื่อสร้างคลาสที่รวมการดำเนินการ SparseApplyAdagradV2 ใหม่
เอาท์พุต <T>
ออก ()
เช่นเดียวกับ "var"
SparseApplyAdagradV2.Options แบบคงที่
updateSlots (บูลีน updateSlots)
SparseApplyAdagradV2.Options แบบคงที่
useLocking (การใช้ล็อคแบบบูลีน)

วิธีการสืบทอด

วิธีการสาธารณะ

เอาท์พุท สาธารณะ <T> asOutput ()

ส่งกลับค่าแฮนเดิลสัญลักษณ์ของเทนเซอร์

อินพุตสำหรับการดำเนินการ TensorFlow คือเอาต์พุตของการดำเนินการ TensorFlow อื่น วิธีการนี้ใช้เพื่อรับหมายเลขอ้างอิงสัญลักษณ์ที่แสดงถึงการคำนวณอินพุต

สาธารณะ SparseApplyAdagradV2 <T> สร้าง แบบคงที่ (ขอบเขต ขอบเขต , ตัวดำเนินการ <T> var, ตัวดำเนินการ <T> สะสม, ตัว ดำเนิน การ <T> lr, ตัวดำเนินการ <T> เอปไซลอน, ตัวดำเนินการ <T> ผู้สำเร็จการศึกษา, ดัชนีตัว ดำเนินการ <U>, ตัวเลือก .. . ตัวเลือก)

วิธีการจากโรงงานเพื่อสร้างคลาสที่รวมการดำเนินการ SparseApplyAdagradV2 ใหม่

พารามิเตอร์
ขอบเขต ขอบเขตปัจจุบัน
var ควรมาจากตัวแปร ()
สะสม ควรมาจากตัวแปร ()
อัตราการเรียนรู้ ต้องเป็นสเกลาร์
เอปไซลอน ปัจจัยคงที่ ต้องเป็นสเกลาร์
ผู้สำเร็จการศึกษา การไล่ระดับสี
ดัชนี เวกเตอร์ของดัชนีในมิติแรกของ var และ accum
ตัวเลือก มีค่าแอตทริบิวต์ทางเลือก
การส่งคืน
  • อินสแตนซ์ใหม่ของ SparseApplyAdagradV2

เอาท์พุท สาธารณะ <T> ออก ()

เช่นเดียวกับ "var"

สาธารณะ SparseApplyAdagradV2.Options updateSlots แบบคงที่ (Boolean updateSlots)

สาธารณะ SparseApplyAdagradV2.Options useLocking แบบคงที่ (useLocking แบบบูลีน)

พารามิเตอร์
ใช้ล็อค หากเป็น "จริง" การอัปเดต var และ accum tensor จะได้รับการปกป้องด้วยการล็อค มิฉะนั้นพฤติกรรมจะไม่ได้กำหนดไว้ แต่อาจแสดงความขัดแย้งน้อยลง