AlphaDropout

@frozen
public struct AlphaDropout<Scalar> : ParameterlessLayer where Scalar : TensorFlowFloatingPoint

เลเยอร์การออกกลางคันของอัลฟ่า

Alpha Dropout คือ Dropout ที่จะเก็บค่าเฉลี่ยและความแปรปรวนของอินพุตให้เป็นค่าดั้งเดิม เพื่อให้แน่ใจว่าคุณสมบัติการทำให้เป็นมาตรฐานในตัวเองแม้หลังจากการออกกลางคันนี้ Alpha Dropout เข้ากันได้ดีกับ Scaled Exponential Linear Units โดยการสุ่มตั้งค่าการเปิดใช้งานให้เป็นค่าความอิ่มตัวที่เป็นลบ

ที่มา: โครงข่ายประสาทเทียมที่ทำให้เป็นมาตรฐานด้วยตนเอง: https://arxiv.org/abs/1706.02515