AlfaDropout

@frozen
public struct AlphaDropout<Scalar> : ParameterlessLayer where Scalar : TensorFlowFloatingPoint

Uma camada de eliminação Alpha.

Alpha Dropout é um Dropout que mantém a média e a variância das entradas em seus valores originais, de forma a garantir a propriedade de autonormalização mesmo após esse dropout. Alpha Dropout se adapta bem às unidades lineares exponenciais em escala, definindo aleatoriamente as ativações para o valor de saturação negativo.

Fonte: Redes Neurais Auto-Normalizantes: https://arxiv.org/abs/1706.02515

  • Declaração

    public typealias TangentVector = EmptyTangentVector
  • Declaração

    @noDerivative
    public let probability: Double
  • Inicializa uma camada AlphaDropout com uma probability configurável.

    Condição prévia

    a probabilidade deve ser um valor entre 0 e 1 (inclusive).

    Declaração

    public init(probability: Double)

    Parâmetros

    probability

    A probabilidade de um nó cair.

  • Adiciona ruído à input durante o treinamento e não funciona durante a inferência.

    Declaração

    @differentiable
    public func forward(_ input: Tensor<Scalar>) -> Tensor<Scalar>