Norma warstwy

@frozen
public struct LayerNorm<Scalar> : Layer where Scalar : TensorFlowFloatingPoint

Warstwa, która stosuje normalizację warstw w mini-partii danych wejściowych.

Odniesienie: Normalizacja warstw .

  • Wartość przesunięcia, znana również jako beta.

    Deklaracja

    public var offset: Tensor<Scalar>
  • Wartość skali, znana również jako gamma.

    Deklaracja

    public var scale: Tensor<Scalar>
  • Oś.

    Deklaracja

    @noDerivative
    public let axis: Int
  • Wartość epsilon wariancji.

    Deklaracja

    @noDerivative
    public let epsilon: Scalar
  • Tworzy warstwę normalizacji warstwy.

    Deklaracja

    public init(
      offset: Tensor<Scalar>,
      scale: Tensor<Scalar>,
      axis: Int,
      epsilon: Scalar
    )
  • Tworzy warstwę normalizacji warstwy.

    Deklaracja

    public init(
      featureCount: Int,
      axis: Int,
      epsilon: Scalar = 0.001
    )

    Parametry

    featureCount

    Liczba funkcji.

    axis

    Oś, która powinna zostać znormalizowana.

    epsilon

    Mały skalar dodał do wariancji.

  • Zwraca wynik uzyskany po zastosowaniu warstwy do podanych danych wejściowych.

    Deklaracja

    @differentiable
    public func forward(_ input: Tensor<Scalar>) -> Tensor<Scalar>

    Parametry

    input

    Wejście do warstwy.

    Wartość zwracana

    Wyjście.