Norma de capa

@frozen
public struct LayerNorm<Scalar> : Layer where Scalar : TensorFlowFloatingPoint

Una capa que aplica la normalización de capas sobre un mini lote de entradas.

Referencia: Normalización de capas .

  • El valor de compensación, también conocido como beta.

    Declaración

    public var offset: Tensor<Scalar>
  • El valor de escala, también conocido como gamma.

    Declaración

    public var scale: Tensor<Scalar>
  • eje

    El eje.

    Declaración

    @noDerivative
    public let axis: Int
  • El valor épsilon de varianza.

    Declaración

    @noDerivative
    public let epsilon: Scalar
  • Crea una capa de normalización de capas.

    Declaración

    public init(
      offset: Tensor<Scalar>,
      scale: Tensor<Scalar>,
      axis: Int,
      epsilon: Scalar
    )
  • Crea una capa de normalización de capas.

    Declaración

    public init(
      featureCount: Int,
      axis: Int,
      epsilon: Scalar = 0.001
    )

    Parámetros

    featureCount

    El número de características.

    axis

    El eje que debe normalizarse.

    epsilon

    El pequeño escalar aumentó la varianza.

  • Devuelve el resultado obtenido al aplicar la capa a la entrada dada.

    Declaración

    @differentiable
    public func forward(_ input: Tensor<Scalar>) -> Tensor<Scalar>

    Parámetros

    input

    La entrada a la capa.

    Valor de retorno

    La salida.