LớpNorm

@frozen
public struct LayerNorm<Scalar> : Layer where Scalar : TensorFlowFloatingPoint

Một lớp áp dụng chuẩn hóa lớp trên một loạt đầu vào nhỏ.

Tham khảo: Chuẩn hóa lớp .

  • Giá trị bù trừ, còn được gọi là beta.

    Tuyên ngôn

    public var offset: Tensor<Scalar>
  • Giá trị tỷ lệ, còn được gọi là gamma.

    Tuyên ngôn

    public var scale: Tensor<Scalar>
  • Trục.

    Tuyên ngôn

    @noDerivative
    public let axis: Int
  • Giá trị phương sai epsilon.

    Tuyên ngôn

    @noDerivative
    public let epsilon: Scalar
  • Tạo một lớp chuẩn hóa lớp.

    Tuyên ngôn

    public init(
      offset: Tensor<Scalar>,
      scale: Tensor<Scalar>,
      axis: Int,
      epsilon: Scalar
    )
  • Tạo một lớp chuẩn hóa lớp.

    Tuyên ngôn

    public init(
      featureCount: Int,
      axis: Int,
      epsilon: Scalar = 0.001
    )

    Thông số

    featureCount

    Số lượng các tính năng.

    axis

    Trục cần được chuẩn hóa.

    epsilon

    Vô hướng nhỏ được thêm vào phương sai.

  • Trả về kết quả thu được từ việc áp dụng lớp cho đầu vào đã cho.

    Tuyên ngôn

    @differentiable
    public func forward(_ input: Tensor<Scalar>) -> Tensor<Scalar>

    Thông số

    input

    Đầu vào của lớp.

    Giá trị trả về

    Đầu ra.