ResourceSparseApplyAdagradDa

ResourceSparseApplyAdagradDa คลาสสุดท้ายสาธารณะ

อัปเดตรายการใน '*var' และ '*accum' ตามรูปแบบ adagrad ที่ใกล้เคียง

คลาสที่ซ้อนกัน

ระดับ ResourceSparseApplyAdagradDa.Options แอ็ตทริบิวต์ทางเลือกสำหรับ ResourceSparseApplyAdagradDa

ค่าคงที่

สตริง OP_NAME ชื่อของ op นี้ ซึ่งรู้จักกันในชื่อของเอ็นจิ้นหลัก TensorFlow

วิธีการสาธารณะ

คงที่ <T ขยาย TType > ResourceSparseApplyAdagradDa
สร้าง ( ขอบเขต ขอบเขต ตัวดำเนินการ <?> var, ตัวดำเนินการ <?> การไล่ระดับAccumulator, ตัวดำเนินการ <?> การ ไล่ระดับSquaredAccumulator, ตัวดำเนินการ <T> ผู้สำเร็จการศึกษา, ตัวดำเนินการ <? ขยาย TNumber > ดัชนี, ตัวดำเนินการ <T> lr, ตัวดำเนินการ <T> l1, ตัวถูกดำเนินการ <T> l2 ตัวดำเนินการ < TInt64 > globalStep, ตัวเลือก... ตัวเลือก)
วิธีการจากโรงงานเพื่อสร้างคลาสที่รวมการดำเนินการ ResourceSparseApplyAdagradDa ใหม่
ResourceSparseApplyAdagradDa.Options แบบคงที่
useLocking (การใช้ล็อคแบบบูลีน)

วิธีการสืบทอด

ค่าคงที่

สตริงสุดท้ายแบบคงที่สาธารณะ OP_NAME

ชื่อของ op นี้ ซึ่งรู้จักกันในชื่อของเอ็นจิ้นหลัก TensorFlow

ค่าคงที่: "ResourceSparseApplyAdagradDA"

วิธีการสาธารณะ

ResourceSparseApplyAdagradDa สาธารณะแบบคงที่ สร้าง ( ขอบเขต ขอบเขต ตัวดำเนินการ <?> var, ตัวดำเนินการ <?> การไล่ระดับสะสม, ตัวดำเนินการ <?> การไล่ระดับสีSquaredAccumulator, ตัว ดำเนิน การ <T> ผู้สำเร็จการศึกษา, ตัวดำเนินการ <? ขยาย TNumber > ดัชนี, ตัวดำเนินการ <T> lr, ตัวถูกดำเนินการ <T> l1, ตัวดำเนินการ <T> l2, ตัวดำเนินการ < TInt64 > globalStep, ตัวเลือก... ตัวเลือก)

วิธีการจากโรงงานเพื่อสร้างคลาสที่รวมการดำเนินการ ResourceSparseApplyAdagradDa ใหม่

พารามิเตอร์
ขอบเขต ขอบเขตปัจจุบัน
var ควรมาจากตัวแปร ()
การไล่ระดับสีสะสม ควรมาจากตัวแปร ()
การไล่ระดับสีSquaredAccumulator ควรมาจากตัวแปร ()
ผู้สำเร็จการศึกษา การไล่ระดับสี
ดัชนี เวกเตอร์ของดัชนีในมิติแรกของ var และ accum
อัตราการเรียนรู้ ต้องเป็นสเกลาร์
l1 การทำให้เป็นมาตรฐาน L1 ต้องเป็นสเกลาร์
l2 การทำให้เป็นมาตรฐานของ L2 ต้องเป็นสเกลาร์
globalStep หมายเลขขั้นตอนการฝึกอบรม ต้องเป็นสเกลาร์
ตัวเลือก มีค่าแอตทริบิวต์ทางเลือก
การส่งคืน
  • อินสแตนซ์ใหม่ของ ResourceSparseApplyAdagradDa

ResourceSparseApplyAdagradDa.Options สาธารณะแบบคงที่ useLocking (useLocking แบบบูลีน)

พารามิเตอร์
ใช้ล็อค หากเป็น True การอัปเดต var และ accum tensor จะได้รับการปกป้องด้วยการล็อค มิฉะนั้นพฤติกรรมจะไม่ได้กำหนดไว้ แต่อาจแสดงความขัดแย้งน้อยลง