ELU

ELU ชั้นเรียนสาธารณะ

หน่วยเชิงเส้นเอ็กซ์โปเนนเชียล

หน่วยเชิงเส้นเอ็กซ์โปเนนเชียล (ELU) ที่มี alpha > 0 คือ:

x ถ้า x > 0 และ alpha * (exp(x) - 1) ถ้า x < 0

ไฮเปอร์พารามิเตอร์ alpha ของ ELU จะควบคุมค่าที่ ELU อิ่มตัวสำหรับอินพุตสุทธิที่เป็นลบ ELUs ลดเอฟเฟกต์การไล่ระดับสีที่หายไป

ELU มีค่าเป็นลบซึ่งทำให้ค่าเฉลี่ยของการเปิดใช้งานเข้าใกล้ศูนย์มากขึ้น การเปิดใช้งานค่าเฉลี่ยที่ใกล้กับศูนย์จะทำให้การเรียนรู้เร็วขึ้น เนื่องจากจะทำให้การไล่ระดับสีเข้าใกล้การไล่ระดับสีตามธรรมชาติมากขึ้น ELU จะอิ่มตัวไปเป็นค่าลบเมื่ออาร์กิวเมนต์มีขนาดเล็กลง ความอิ่มตัวหมายถึงอนุพันธ์ขนาดเล็กที่ลดการแปรผันและข้อมูลที่ถูกเผยแพร่ไปยังเลเยอร์ถัดไป

ตัวอย่างการใช้งาน:

     Operand<TFloat32> input = ...;
     ELU<TFloat32> elu = new ELU<>(tf, 2.0f);
     Operand<TFloat32> result = elu.call(input);
 

คอนสตรัคชั่นสาธารณะ

ELU (ปฏิบัติการ tf)
สร้าง ELU ใหม่ด้วย alpha= ERROR(/#ALPHA_DEFAULT)
ELU (Ops tf, อัลฟาคู่)
สร้าง ELU ใหม่

วิธีการสาธารณะ

ตัวดำเนินการ <T>
โทร ( ตัวดำเนินการ <T> อินพุต)
รับการดำเนินการคำนวณสำหรับการเปิดใช้งาน

วิธีการสืบทอด

คอนสตรัคชั่นสาธารณะ

ELU สาธารณะ (Ops tf)

สร้าง ELU ใหม่ด้วย alpha= ERROR(/#ALPHA_DEFAULT)

พารามิเตอร์
ไม่ Ops ของ TensorFlow

ELU สาธารณะ (Ops tf, อัลฟาคู่)

สร้าง ELU ใหม่

พารามิเตอร์
ไม่ Ops ของ TensorFlow
อัลฟ่า สเกลาร์ ความชันของส่วนลบ โดยจะควบคุมค่าที่ ELU อิ่มตัวสำหรับอินพุตสุทธิที่เป็นลบ

วิธีการสาธารณะ

ตัวดำเนินการ สาธารณะ <T> โทร ( ตัวถูกดำเนินการ <T> อินพุต)

รับการดำเนินการคำนวณสำหรับการเปิดใช้งาน

พารามิเตอร์
ป้อนข้อมูล เทนเซอร์อินพุต
การส่งคืน
  • ตัวถูกดำเนินการสำหรับการเปิดใช้งาน