@frozen
public struct AlphaDropout<Scalar> : ParameterlessLayer where Scalar : TensorFlowFloatingPoint
Uma camada de eliminação alfa.
Alpha Dropout é um Dropout
que mantém média e variância de entradas para os valores originais, a fim de garantir a propriedade auto-normalizando, mesmo após este abandono. Alpha Dropout se ajusta bem às unidades lineares exponenciais em escala, configurando ativações aleatoriamente para o valor de saturação negativo.
Fonte: Auto-Normalizing Neural Networks: https://arxiv.org/abs/1706.02515
Declaração
public typealias TangentVector = EmptyTangentVector
Declaração
@noDerivative public let probability: Double
Inicializa uma
AlphaDropout
camada com uma configurávelprobability
.Condição prévia
probabilidade deve ser um valor entre 0 e 1 (inclusive).Declaração
public init(probability: Double)
Parâmetros
probability
A probabilidade de um nó cair.