LayerNorm

@frozen
public struct LayerNorm<Scalar> : Layer where Scalar : TensorFlowFloatingPoint

طبقة تطبق تسوية الطبقة على مجموعة صغيرة من المدخلات.

المرجع: تطبيع الطبقة .

  • قيمة الإزاحة، والمعروفة أيضًا باسم بيتا.

    تصريح

    public var offset: Tensor<Scalar>
  • قيمة المقياس، والمعروفة أيضًا باسم جاما.

    تصريح

    public var scale: Tensor<Scalar>
  • المحور.

    تصريح

    @noDerivative
    public let axis: Int
  • قيمة التباين إبسيلون

    تصريح

    @noDerivative
    public let epsilon: Scalar
  • يخلق طبقة تطبيع الطبقة.

    تصريح

    public init(
      offset: Tensor<Scalar>,
      scale: Tensor<Scalar>,
      axis: Int,
      epsilon: Scalar
    )
  • يخلق طبقة تطبيع الطبقة.

    تصريح

    public init(
      featureCount: Int,
      axis: Int,
      epsilon: Scalar = 0.001
    )

    حدود

    featureCount

    عدد الميزات.

    axis

    المحور الذي ينبغي تطبيعه.

    epsilon

    العددية الصغيرة المضافة إلى التباين.

  • إرجاع المخرجات التي تم الحصول عليها من تطبيق الطبقة على المدخلات المحددة.

    تصريح

    @differentiable
    public func forward(_ input: Tensor<Scalar>) -> Tensor<Scalar>

    حدود

    input

    الإدخال إلى الطبقة

    قيمة الإرجاع

    الإخراج.