AlphaDropout

@frozen
public struct AlphaDropout<Scalar> : ParameterlessLayer where Scalar : TensorFlowFloatingPoint

Một lớp bỏ học Alpha.

Alpha Dropout là Dropout giữ giá trị trung bình và phương sai của đầu vào về giá trị ban đầu của chúng, để đảm bảo thuộc tính tự chuẩn hóa ngay cả sau lần bỏ học này. Alpha Dropout rất phù hợp với Đơn vị tuyến tính hàm mũ theo tỷ lệ bằng cách đặt ngẫu nhiên các kích hoạt thành giá trị bão hòa âm.

Nguồn: Mạng thần kinh tự chuẩn hóa: https://arxiv.org/abs/1706.02515

  • Tuyên ngôn

    public typealias TangentVector = EmptyTangentVector
  • Tuyên ngôn

    @noDerivative
    public let probability: Double
  • Khởi tạo lớp AlphaDropout với probability có thể định cấu hình.

    điều kiện tiên quyết

    xác suất phải là giá trị từ 0 đến 1 (bao gồm).

    Tuyên ngôn

    public init(probability: Double)

    Thông số

    probability

    Xác suất của một nút bị loại bỏ.

  • Thêm nhiễu vào input trong quá trình đào tạo và không hoạt động trong quá trình suy luận.

    Tuyên ngôn

    @differentiable
    public func forward(_ input: Tensor<Scalar>) -> Tensor<Scalar>