Abandono alfa

@frozen
public struct AlphaDropout<Scalar> : ParameterlessLayer where Scalar : TensorFlowFloatingPoint

Una capa de abandono Alfa.

Alpha Dropout es un Dropout que mantiene la media y la varianza de las entradas en sus valores originales, para garantizar la propiedad de autonormalización incluso después de este abandono. La caída alfa se adapta bien a las unidades lineales exponenciales escaladas al establecer activaciones aleatoriamente en el valor de saturación negativo.

Fuente: Redes neuronales autonormalizadas: https://arxiv.org/abs/1706.02515

  • Declaración

    public typealias TangentVector = EmptyTangentVector
  • Declaración

    @noDerivative
    public let probability: Double
  • Inicializa una capa AlphaDropout con una probability configurable.

    Condición previa

    la probabilidad debe ser un valor entre 0 y 1 (inclusive).

    Declaración

    public init(probability: Double)

    Parámetros

    probability

    La probabilidad de que un nodo se caiga.

  • Agrega ruido a input durante el entrenamiento y no es operativo durante la inferencia.

    Declaración

    @differentiable
    public func forward(_ input: Tensor<Scalar>) -> Tensor<Scalar>