लेयर नॉर्म

@frozen
public struct LayerNorm<Scalar> : Layer where Scalar : TensorFlowFloatingPoint

एक परत जो इनपुट के एक मिनी-बैच पर परत सामान्यीकरण लागू करती है।

संदर्भ: परत सामान्यीकरण

  • ऑफसेट मान, जिसे बीटा भी कहा जाता है।

    घोषणा

    public var offset: Tensor<Scalar>
  • स्केल मान, जिसे गामा भी कहा जाता है।

    घोषणा

    public var scale: Tensor<Scalar>
  • धुरी।

    घोषणा

    @noDerivative
    public let axis: Int
  • विचरण ईपीएसलॉन मान.

    घोषणा

    @noDerivative
    public let epsilon: Scalar
  • एक परत सामान्यीकरण परत बनाता है।

    घोषणा

    public init(
      offset: Tensor<Scalar>,
      scale: Tensor<Scalar>,
      axis: Int,
      epsilon: Scalar
    )
  • एक परत सामान्यीकरण परत बनाता है।

    घोषणा

    public init(
      featureCount: Int,
      axis: Int,
      epsilon: Scalar = 0.001
    )

    पैरामीटर

    featureCount

    सुविधाओं की संख्या.

    axis

    वह अक्ष जिसे सामान्यीकृत किया जाना चाहिए.

    epsilon

    छोटा अदिश विचरण में जोड़ा गया।

  • दिए गए इनपुट पर परत लगाने से प्राप्त आउटपुट लौटाता है।

    घोषणा

    @differentiable
    public func forward(_ input: Tensor<Scalar>) -> Tensor<Scalar>

    पैरामीटर

    input

    परत में इनपुट.

    प्रतिलाभ की मात्रा

    उत्पादन।