طبقة

public protocol Layer : Module where Self.Input : Differentiable

طبقة شبكة عصبية.

الأنواع التي تتوافق مع Layer تمثل الوظائف التي المدخلات الخريطة لالنواتج. قد يكون لديهم حالة داخلية ممثلة بالمعلمات ، مثل موتر الوزن.

Layer الحالات تحديد تفاضل callAsFunction(_:) طريقة للمدخلات التعيين لالنواتج.

  • تُرجع المخرجات التي تم الحصول عليها من تطبيق الطبقة على الإدخال المحدد.

    إعلان

    @differentiable
    func callAsFunction(_ input: Input) -> Output

    العوامل

    input

    الإدخال إلى الطبقة.

    قيمة الإرجاع

    الإخراج.

  • إلى الأمام(_:)

    التنفيذ الافتراضي

    التنفيذ الافتراضي

    إعلان

    @differentiable
    func forward(_ input: Input) -> Output
  • استنتاج (من :)

    طريقة التمديد

    تُرجع ناتج الاستنتاج الذي تم الحصول عليه من تطبيق الطبقة على الإدخال المحدد.

    إعلان

    public func inferring(from input: Input) -> Output

    العوامل

    input

    الإدخال إلى الطبقة.

    قيمة الإرجاع

    ناتج الاستدلال.

  • Backpropagator

    طريقة التمديد

    إعلان

    public typealias Backpropagator = (_ direction: Output.TangentVector)
      -> (layerGradient: TangentVector, inputGradient: Input.TangentVector)
  • applicationForBackpropagation (إلى :)

    طريقة التمديد

    تُرجع ناتج الاستنتاج ووظيفة الانتشار العكسي التي تم الحصول عليها من تطبيق الطبقة على الإدخال المحدد.

    إعلان

    public func appliedForBackpropagation(to input: Input)
      -> (output: Output, backpropagator: Backpropagator)

    العوامل

    input

    الإدخال إلى الطبقة.

    قيمة الإرجاع

    مجموعة تحتوي على المخرجات ووظيفة الانتشار العكسي. تأخذ وظيفة backpropagation (المعروف أيضًا باسم backpropagator) متجه اتجاه وترجع التدرجات في الطبقة وعند الإدخال ، على التوالي.

متاح حيث "الإدخال": "DifferentiableTensorProtocol" ، "Output": "DifferentiableTensorProtocol"

  • callAsFunction (_ :)

    التنفيذ الافتراضي

    التنفيذ الافتراضي

    إعلان

    @differentiable(wrt: self)
    @differentiable
    public func callAsFunction(_ input: Input) -> Output