@frozen
public struct LayerNorm<Scalar> : Layer where Scalar : TensorFlowFloatingPoint
Una capa que aplica la normalización de capas sobre un mini lote de entradas.
Referencia: Normalización de capas .
El valor de compensación, también conocido como beta.
Declaración
public var offset: Tensor<Scalar>
El valor de escala, también conocido como gamma.
Declaración
public var scale: Tensor<Scalar>
El eje.
Declaración
@noDerivative public let axis: Int
El valor épsilon de varianza.
Declaración
@noDerivative public let epsilon: Scalar
Crea una capa de normalización de capas.
Declaración
public init( featureCount: Int, axis: Int, epsilon: Scalar = 0.001 )
Parámetros
featureCount
El número de características.
axis
El eje que debe normalizarse.
epsilon
El pequeño escalar aumentó la varianza.