CamadaNorm

@frozen
public struct LayerNorm<Scalar> : Layer where Scalar : TensorFlowFloatingPoint

Uma camada que aplica a normalização de camada em um minilote de entradas.

Referência: Normalização de Camada .

  • O valor de deslocamento, também conhecido como beta.

    Declaração

    public var offset: Tensor<Scalar>
  • O valor da escala, também conhecido como gama.

    Declaração

    public var scale: Tensor<Scalar>
  • O eixo.

    Declaração

    @noDerivative
    public let axis: Int
  • O valor épsilon da variância.

    Declaração

    @noDerivative
    public let epsilon: Scalar
  • Cria uma camada de normalização de camada.

    Declaração

    public init(
      offset: Tensor<Scalar>,
      scale: Tensor<Scalar>,
      axis: Int,
      epsilon: Scalar
    )
  • Cria uma camada de normalização de camada.

    Declaração

    public init(
      featureCount: Int,
      axis: Int,
      epsilon: Scalar = 0.001
    )

    Parâmetros

    featureCount

    O número de recursos.

    axis

    O eixo que deve ser normalizado.

    epsilon

    O pequeno escalar adicionado à variância.

  • Retorna a saída obtida ao aplicar a camada à entrada fornecida.

    Declaração

    @differentiable
    public func forward(_ input: Tensor<Scalar>) -> Tensor<Scalar>

    Parâmetros

    input

    A entrada para a camada.

    Valor de retorno

    A saída.