ResourceSparseApplyProximalAdagrad

ResourceSparseApplyProximalAdagrad คลาสสุดท้ายสาธารณะ

รายการอัปเดตแบบกระจัดกระจายใน '*var' และ '*accum' ตามอัลกอริทึม FOBOS

นั่นคือสำหรับแถวที่เรามี grad เราอัปเดต var และ accum ดังนี้: accum += grad grad prox_v = var prox_v -= lr grad (1 / sqrt(accum)) var = sign(prox_v)/(1+lr l2 ) สูงสุด{|prox_v|-lr l1,0}

คลาสที่ซ้อนกัน

ระดับ ResourceSparseApplyProximalAdagrad.Options แอ็ตทริบิวต์ทางเลือกสำหรับ ResourceSparseApplyProximalAdagrad

ค่าคงที่

สตริง OP_NAME ชื่อของ op นี้ ซึ่งรู้จักกันในชื่อของเอ็นจิ้นหลัก TensorFlow

วิธีการสาธารณะ

คงที่ <T ขยาย TType > ResourceSparseApplyProximalAdagrad
สร้าง ( ขอบเขต ขอบเขต ตัวถูกดำเนินการ <?> var, ตัว ถูกดำเนินการ <?> accum, ตัวถูกดำเนินการ <T> lr, ตัวถูก ดำเนินการ <T> l1, ตัวถูกดำเนินการ <T> l2, ตัว ถูกดำเนินการ <T> ผู้สำเร็จการศึกษา, ตัวถูกดำเนินการ <? ขยาย TNumber > ดัชนี, ตัวเลือก ... ตัวเลือก)
วิธีการจากโรงงานเพื่อสร้างคลาสที่รวมการดำเนินการ ResourceSparseApplyProximalAdagrad ใหม่
ResourceSparseApplyProximalAdagrad.Options แบบคงที่
useLocking (การใช้ล็อคแบบบูลีน)

วิธีการสืบทอด

ค่าคงที่

สตริงสุดท้ายแบบคงที่สาธารณะ OP_NAME

ชื่อของ op นี้ ซึ่งรู้จักกันในชื่อของเอ็นจิ้นหลัก TensorFlow

ค่าคงที่: "ResourceSparseApplyProximalAdagrad"

วิธีการสาธารณะ

ResourceSparseApplyProximalAdagrad แบบคงที่สาธารณะ สร้าง (ขอบเขต ขอบเขต , ตัวดำเนินการ <?> var, ตัวดำเนินการ <?> accum, ตัวดำเนินการ <T> lr, ตัวดำเนินการ <T> l1, ตัวดำเนินการ <T> l2, ตัวดำเนินการ <T> ผู้สำเร็จการศึกษา, ตัวดำเนินการ <? ขยาย TNumber > ดัชนี ตัวเลือก... ตัวเลือก)

วิธีการจากโรงงานเพื่อสร้างคลาสที่รวมการดำเนินการ ResourceSparseApplyProximalAdagrad ใหม่

พารามิเตอร์
ขอบเขต ขอบเขตปัจจุบัน
var ควรมาจากตัวแปร ()
สะสม ควรมาจากตัวแปร ()
อัตราการเรียนรู้ ต้องเป็นสเกลาร์
l1 การทำให้เป็นมาตรฐาน L1 ต้องเป็นสเกลาร์
l2 การทำให้เป็นมาตรฐานของ L2 ต้องเป็นสเกลาร์
ผู้สำเร็จการศึกษา การไล่ระดับสี
ดัชนี เวกเตอร์ของดัชนีในมิติแรกของ var และ accum
ตัวเลือก มีค่าแอตทริบิวต์ทางเลือก
การส่งคืน
  • อินสแตนซ์ใหม่ของ ResourceSparseApplyProximalAdagrad

สาธารณะ ResourceSparseApplyProximalAdagrad.Options useLocking (useLocking แบบบูลีน)

พารามิเตอร์
ใช้ล็อค หากเป็น True การอัปเดต var และ accum tensor จะได้รับการปกป้องด้วยการล็อค มิฉะนั้นพฤติกรรมจะไม่ได้กำหนดไว้ แต่อาจแสดงความขัดแย้งน้อยลง