LayerNorm

@frozen
public struct LayerNorm<Scalar> : Layer where Scalar : TensorFlowFloatingPoint

Un livello che applica la normalizzazione del livello su un mini-batch di input.

Riferimento: Normalizzazione dei livelli .

  • Il valore di offset, noto anche come beta.

    Dichiarazione

    public var offset: Tensor<Scalar>
  • Il valore di scala, noto anche come gamma.

    Dichiarazione

    public var scale: Tensor<Scalar>
  • L'asse.

    Dichiarazione

    @noDerivative
    public let axis: Int
  • Il valore epsilon della varianza.

    Dichiarazione

    @noDerivative
    public let epsilon: Scalar
  • Crea un livello di normalizzazione del livello.

    Dichiarazione

    public init(
      offset: Tensor<Scalar>,
      scale: Tensor<Scalar>,
      axis: Int,
      epsilon: Scalar
    )
  • Crea un livello di normalizzazione del livello.

    Dichiarazione

    public init(
      featureCount: Int,
      axis: Int,
      epsilon: Scalar = 0.001
    )

    Parametri

    featureCount

    Il numero di funzionalità.

    axis

    L'asse che dovrebbe essere normalizzato.

    epsilon

    Il piccolo scalare sommato alla varianza.

  • Restituisce l'output ottenuto dall'applicazione del livello all'input specificato.

    Dichiarazione

    @differentiable
    public func forward(_ input: Tensor<Scalar>) -> Tensor<Scalar>

    Parametri

    input

    L'input al livello.

    Valore di ritorno

    Il risultato.