SELU

SELU ชั้นเรียนสาธารณะ

หน่วยเชิงเส้นเอ็กซ์โพเนนเชียลแบบปรับขนาด (SELU)

ฟังก์ชันการเปิดใช้งาน Scaled Exponential Linear Unit (SELU) ถูกกำหนดเป็น:

  • if x > 0: return scale * x
  • if x < 0: return scale * alpha * (exp(x) - 1)

โดยที่ alpha และ scale เป็นค่าคงที่ที่กำหนดไว้ล่วงหน้า ( alpha=1.67326324 และ scale=1.05070098 )

โดยพื้นฐานแล้ว ฟังก์ชันการเปิดใช้งาน SELU จะคูณ scale (> 1) กับเอาท์พุตของฟังก์ชัน elu เพื่อให้แน่ใจว่าความชันจะมากกว่าหนึ่งสำหรับอินพุตที่เป็นบวก

มีการเลือกค่า alpha และ scale เพื่อรักษาค่าเฉลี่ยและความแปรปรวนของอินพุตระหว่างสองชั้นติดต่อกันตราบใดที่น้ำหนักเริ่มต้นอย่างถูกต้อง (ดู LeCun พร้อมการกระจายแบบปกติ) และจำนวนหน่วยอินพุต "ใหญ่เพียงพอ"

หมายเหตุ: เพื่อใช้ร่วมกับเครื่องมือเริ่มต้น LeCun พร้อมการแจกแจงแบบปกติ

ดูสิ่งนี้ด้วย

คอนสตรัคชั่นสาธารณะ

SELU (ปฏิบัติการ tf)
สร้างการเปิดใช้งาน Scaled Exponential Linear Unit (SELU)

วิธีการสาธารณะ

ตัวดำเนินการ <T>
โทร ( ตัวถูกดำเนินการ <T> อินพุต)
รับการดำเนินการคำนวณสำหรับการเปิดใช้งาน

วิธีการสืบทอด

คอนสตรัคชั่นสาธารณะ

SELU สาธารณะ (Ops tf)

สร้างการเปิดใช้งาน Scaled Exponential Linear Unit (SELU)

พารามิเตอร์
ไม่ Ops ของ TensorFlow

วิธีการสาธารณะ

ตัวดำเนินการ สาธารณะ <T> โทร ( ตัวถูกดำเนินการ <T> อินพุต)

รับการดำเนินการคำนวณสำหรับการเปิดใช้งาน

พารามิเตอร์
ป้อนข้อมูล เทนเซอร์อินพุต
การส่งคืน
  • ตัวถูกดำเนินการสำหรับการเปิดใช้งาน