@frozen
public struct AlphaDropout<Scalar> : ParameterlessLayer where Scalar : TensorFlowFloatingPoint
Una capa de deserción alfa.
Alfa deserción es una Dropout
que mantiene la media y la varianza de las entradas a sus valores originales, con el fin de asegurar la propiedad de auto-normalización, incluso después de esta deserción. Alpha Dropout se adapta bien a las unidades lineales exponenciales escaladas al configurar de forma aleatoria las activaciones al valor de saturación negativo.
Fuente: Auto-Normalización Redes Neuronales: https://arxiv.org/abs/1706.02515
Declaración
public typealias TangentVector = EmptyTangentVector
Declaración
@noDerivative public let probability: Double
Inicializa una
AlphaDropout
capa con un configurableprobability
.Condición previa
la probabilidad debe ser un valor entre 0 y 1 (inclusive).Declaración
public init(probability: Double)
Parámetros
probability
La probabilidad de que un nodo se caiga.