AlphaDropout

@frozen
public struct AlphaDropout<Scalar> : ParameterlessLayer where Scalar : TensorFlowFloatingPoint

طبقة التسرب ألفا.

Alpha Dropout هو Dropout يحافظ على متوسط ​​وتباين المدخلات لقيمها الأصلية، من أجل ضمان خاصية التطبيع الذاتي حتى بعد هذا التسرب. يتلاءم Alpha Dropout بشكل جيد مع الوحدات الخطية الأسية المتدرجة عن طريق ضبط عمليات التنشيط بشكل عشوائي على قيمة التشبع السالبة.

المصدر: الشبكات العصبية ذاتية التطبيع: https://arxiv.org/abs/1706.02515

  • تصريح

    public typealias TangentVector = EmptyTangentVector
  • تصريح

    @noDerivative
    public let probability: Double
  • تهيئة طبقة AlphaDropout probability قابلة للتكوين.

    شرط مسبق

    يجب أن يكون الاحتمال قيمة بين 0 و1 (ضمناً).

    تصريح

    public init(probability: Double)

    حدود

    probability

    احتمالية خروج العقدة.

  • يضيف ضوضاء إلى input أثناء التدريب، وهو أمر محظور أثناء الاستدلال.

    تصريح

    @differentiable
    public func forward(_ input: Tensor<Scalar>) -> Tensor<Scalar>