AlphaDropout

@frozen
public struct AlphaDropout<Scalar> : ParameterlessLayer where Scalar : TensorFlowFloatingPoint

Una capa de deserción alfa.

Alfa deserción es una Dropout que mantiene la media y la varianza de las entradas a sus valores originales, con el fin de asegurar la propiedad de auto-normalización, incluso después de esta deserción. Alpha Dropout se adapta bien a las unidades lineales exponenciales escaladas al configurar de forma aleatoria las activaciones al valor de saturación negativo.

Fuente: Auto-Normalización Redes Neuronales: https://arxiv.org/abs/1706.02515

  • Declaración

    public typealias TangentVector = EmptyTangentVector
  • Declaración

    @noDerivative
    public let probability: Double
  • Inicializa una AlphaDropout capa con un configurable probability .

    Condición previa

    la probabilidad debe ser un valor entre 0 y 1 (inclusive).

    Declaración

    public init(probability: Double)

    Parámetros

    probability

    La probabilidad de que un nodo se caiga.

  • Añade ruido a input durante el entrenamiento, y es un no-op durante la inferencia.

    Declaración

    @differentiable
    public func forward(_ input: Tensor<Scalar>) -> Tensor<Scalar>