تحذير: هذا المشروع مهمل. كانت Swift for TensorFlow تجربة في منصة الجيل التالي للتعلم الآلي ، حيث تضمنت أحدث الأبحاث عبر التعلم الآلي والمترجمات والبرمجة القابلة للتفاضل وتصميم الأنظمة وما بعده. تمت أرشفته في فبراير 2021.

المهام

الوظائف التالية متاحة عالميًا.

  • تُرجع خسارة L1 بين التوقعات والتوقعات.

    إعلان

    @differentiable(wrt: predicted)
    @differentiable(wrt: (predicted, expected)
    public func l1Loss<Scalar: TensorFlowFloatingPoint>(
      predicted: Tensor<Scalar>,
      expected: Tensor<Scalar>
    ) -> Tensor<Scalar>

    العوامل

    predicted

    النواتج المتوقعة من الشبكة العصبية.

    expected

    القيم المتوقعة ، أي الأهداف ، التي تتوافق مع الناتج الصحيح.

  • تُرجع خسارة L2 بين التوقعات والتوقعات.

    إعلان

    @differentiable(wrt: predicted)
    @differentiable(wrt: (predicted, expected)
    public func l2Loss<Scalar: TensorFlowFloatingPoint>(
      predicted: Tensor<Scalar>,
      expected: Tensor<Scalar>
    ) -> Tensor<Scalar>

    العوامل

    predicted

    النواتج المتوقعة من الشبكة العصبية.

    expected

    القيم المتوقعة ، أي الأهداف ، التي تتوافق مع المخرجات الصحيحة.

  • تُرجع خسارة المفصلة بين التوقعات والتوقعات.

    إعلان

    @differentiable(wrt: predicted)
    @differentiable(wrt: (predicted, expected)
    public func hingeLoss<Scalar: TensorFlowFloatingPoint>(
      predicted: Tensor<Scalar>,
      expected: Tensor<Scalar>
    ) -> Tensor<Scalar>

    العوامل

    predicted

    النواتج المتوقعة من الشبكة العصبية.

    expected

    القيم المتوقعة ، أي الأهداف ، التي تتوافق مع الناتج الصحيح.

  • إرجاع خسارة المفصلة التربيعية بين التوقعات والتوقعات.

    إعلان

    @differentiable(wrt: predicted)
    @differentiable(wrt: (predicted, expected)
    public func squaredHingeLoss<Scalar: TensorFlowFloatingPoint>(
      predicted: Tensor<Scalar>,
      expected: Tensor<Scalar>
    ) -> Tensor<Scalar>

    العوامل

    predicted

    النواتج المتوقعة من الشبكة العصبية.

    expected

    القيم المتوقعة ، أي الأهداف ، التي تتوافق مع المخرجات الصحيحة.

  • تُرجع خسارة المفصلة الفئوية بين التنبؤات والتوقعات.

    إعلان

    @differentiable(wrt: predicted)
    @differentiable(wrt: (predicted, expected)
    public func categoricalHingeLoss<Scalar: TensorFlowFloatingPoint>(
      predicted: Tensor<Scalar>,
      expected: Tensor<Scalar>
    ) -> Tensor<Scalar>

    العوامل

    predicted

    النواتج المتوقعة من الشبكة العصبية.

    expected

    القيم المتوقعة ، أي الأهداف ، التي تتوافق مع المخرجات الصحيحة.

  • لعرض لوغاريتم جيب التمام الزائدي للخطأ بين التنبؤات والتوقعات.

    إعلان

    @differentiable(wrt: predicted)
    @differentiable(wrt: (predicted, expected)
    public func logCoshLoss<Scalar: TensorFlowFloatingPoint>(
      predicted: Tensor<Scalar>,
      expected: Tensor<Scalar>
    ) -> Tensor<Scalar>

    العوامل

    predicted

    النواتج المتوقعة من الشبكة العصبية.

    expected

    القيم المتوقعة ، أي الأهداف ، التي تتوافق مع الناتج الصحيح.

  • إرجاع خسارة بواسون بين التوقعات والتوقعات.

    إعلان

    @differentiable(wrt: predicted)
    @differentiable(wrt: (predicted, expected)
    public func poissonLoss<Scalar: TensorFlowFloatingPoint>(
      predicted: Tensor<Scalar>,
      expected: Tensor<Scalar>
    ) -> Tensor<Scalar>

    العوامل

    predicted

    النواتج المتوقعة من الشبكة العصبية.

    expected

    القيم المتوقعة ، أي الأهداف ، التي تتوافق مع الناتج الصحيح.

  • إرجاع اختلاف Kullback-Leibler (تباعد KL) بين التوقعات والتنبؤات. وبالنظر الى اثنين توزيعات p و q ، KL الاختلاف يحسب p * log(p / q) .

    إعلان

    @differentiable(wrt: predicted)
    @differentiable(wrt: (predicted, expected)
    public func kullbackLeiblerDivergence<Scalar: TensorFlowFloatingPoint>(
      predicted: Tensor<Scalar>,
      expected: Tensor<Scalar>
    ) -> Tensor<Scalar>

    العوامل

    predicted

    النواتج المتوقعة من الشبكة العصبية.

    expected

    القيم المتوقعة ، أي الأهداف ، التي تتوافق مع الناتج الصحيح.

  • تُرجع إنتروبيا softmax المتقاطعة (إنتروبيا قاطعة) بين السجلات والتسميات.

    إعلان

    @differentiable(wrt: logits)
    public func softmaxCrossEntropy<Scalar: TensorFlowFloatingPoint>(
      logits: Tensor<Scalar>,
      probabilities: Tensor<Scalar>
    ) -> Tensor<Scalar>

    العوامل

    logits

    نواتج مشفرة ساخنة واحدة من شبكة عصبية.

    labels

    مؤشرات (بدون فهرسة) للمخرجات الصحيحة.

  • تُرجع إنتروبيا السيني المتقاطعة (إنتروبيا ثنائية متقاطعة) بين السجلات والتسميات.

    إعلان

    @differentiable(wrt: logits)
    @differentiable(wrt: (logits, labels)
    public func sigmoidCrossEntropy<Scalar: TensorFlowFloatingPoint>(
      logits: Tensor<Scalar>,
      labels: Tensor<Scalar>
    ) -> Tensor<Scalar>

    العوامل

    logits

    الإخراج غير المقيس للشبكة العصبية.

    labels

    القيم الصحيحة التي تتوافق مع المخرجات الصحيحة.

  • إرجاع موتر بنفس الشكل والكميات مثل الموتر المحدد.

    إعلان

    @differentiable
    public func identity<Scalar>(_ x: Tensor<Scalar>) -> Tensor<Scalar> where Scalar : TensorFlowScalar
  • يستدعي الإغلاق المحدد ضمن سياق يحتوي على كل شيء مطابق للسياق الحالي باستثناء مرحلة التعلم المحددة.

    إعلان

    public func withContext<R>(_ context: Context, _ body: () throws -> R) rethrows -> R

    العوامل

    context

    السياق الذي سيتم تعيينه قبل استدعاء الإغلاق واستعادته بعد عودة الإغلاق.

    body

    إغلاق باطل. إذا كان الإغلاق لديه قيمة الإرجاع، ويستخدم هذه القيمة أيضا كقيمة عودة withContext(_:_:) وظيفة.

    قيمة الإرجاع

    قيمة الإرجاع، إن وجدت، من body الإغلاق.

  • يستدعي الإغلاق المحدد ضمن سياق يحتوي على كل شيء مطابق للسياق الحالي باستثناء مرحلة التعلم المحددة.

    إعلان

    public func withLearningPhase<R>(
      _ learningPhase: LearningPhase,
      _ body: () throws -> R
    ) rethrows -> R

    العوامل

    learningPhase

    مرحلة التعلم التي سيتم تعيينها قبل استدعاء الإغلاق واستعادته بعد عودة الإغلاق.

    body

    إغلاق باطل. إذا كان الإغلاق لديه قيمة الإرجاع، ويستخدم هذه القيمة أيضا كقيمة عودة withLearningPhase(_:_:) وظيفة.

    قيمة الإرجاع

    قيمة الإرجاع، إن وجدت، من body الإغلاق.

  • يستدعي الإغلاق المحدد ضمن سياق يحتوي على كل شيء مطابق للسياق الحالي باستثناء البداية العشوائية المحددة.

    إعلان

    public func withRandomSeedForTensorFlow<R>(
      _ randomSeed: TensorFlowSeed,
      _ body: () throws -> R
    ) rethrows -> R

    العوامل

    randomSeed

    بذرة عشوائية سيتم تعيينها قبل استدعاء الإغلاق واستعادتها بعد عودة الإغلاق.

    body

    إغلاق باطل. إذا كان الإغلاق لديه قيمة الإرجاع، ويستخدم هذه القيمة أيضا كقيمة عودة withRandomSeedForTensorFlow(_:_:) وظيفة.

    قيمة الإرجاع

    قيمة الإرجاع، إن وجدت، من body الإغلاق.

  • يستدعي الإغلاق المحدد ضمن سياق يحتوي على كل شيء مطابق للسياق الحالي باستثناء مولد الأرقام العشوائي المحدد.

    إعلان

    public func withRandomNumberGeneratorForTensorFlow<G: RandomNumberGenerator, R>(
      _ randomNumberGenerator: inout G,
      _ body: () throws -> R
    ) rethrows -> R

    العوامل

    randomNumberGenerator

    منشئ أرقام عشوائي سيتم تعيينه قبل استدعاء الإغلاق واستعادته بعد عودة الإغلاق.

    body

    إغلاق باطل. إذا كان الإغلاق لديه قيمة الإرجاع، ويستخدم هذه القيمة أيضا كقيمة عودة withRandomNumberGeneratorForTensorFlow(_:_:) وظيفة.

    قيمة الإرجاع

    قيمة الإرجاع، إن وجدت، من body الإغلاق.

  • إعلان

    public func zip<T: TensorGroup, U: TensorGroup>(
      _ dataset1: Dataset<T>, _ dataset2: Dataset<U>
    ) -> Dataset<Zip2TensorGroup<T, U>>
  • يضمن LazyTensorBarrier أن يتم جدولة وتشغيل جميع الموترات الحية (الموجودة على الجهاز إذا تم توفيرها). إذا تم ضبط الانتظار على true ، فسيتم حظر هذا الاستدعاء حتى اكتمال الحساب.

    إعلان

    public func LazyTensorBarrier(on device: Device? = nil, devices: [Device] = [], wait: Bool = false)
  • إعلان

    public func valueWithGradient<T, R>(
      at x: T,
      in f: @differentiable (T) -> Tensor<R>
    ) -> (value: Tensor<R>, gradient: T.TangentVector)
    where T: Differentiable, R: TensorFlowFloatingPoint
  • إعلان

    public func valueWithGradient<T, U, R>(
      at x: T,
      _ y: U,
      in f: @differentiable (T, U) -> Tensor<R>
    ) -> (value: Tensor<R>, gradient: (T.TangentVector, U.TangentVector))
    where T: Differentiable, U: Differentiable, R: TensorFlowFloatingPoint
  • إعلان

    public func valueWithGradient<T, U, V, R>(
      at x: T,
      _ y: U,
      _ z: V,
      in f: @differentiable (T, U, V) -> Tensor<R>
    ) -> (value: Tensor<R>, gradient: (T.TangentVector, U.TangentVector, V.TangentVector))
    where T: Differentiable, U: Differentiable, V: Differentiable, R: TensorFlowFloatingPoint
  • إعلان

    public func valueWithGradient<T, R>(
      of f: @escaping @differentiable (T) -> Tensor<R>
    ) -> (T) -> (value: Tensor<R>, gradient: T.TangentVector)
    where T: Differentiable, R: TensorFlowFloatingPoint
  • إعلان

    public func valueWithGradient<T, U, R>(
      of f: @escaping @differentiable (T, U) -> Tensor<R>
    ) -> (T, U) -> (value: Tensor<R>, gradient: (T.TangentVector, U.TangentVector))
    where T: Differentiable, U: Differentiable, R: TensorFlowFloatingPoint
  • إعلان

    public func valueWithGradient<T, U, V, R>(
      of f: @escaping @differentiable (T, U, V) -> Tensor<R>
    ) -> (T, U, V) -> (
      value: Tensor<R>,
      gradient: (T.TangentVector, U.TangentVector, V.TangentVector)
    )
    where T: Differentiable, U: Differentiable, V: Differentiable, R: TensorFlowFloatingPoint
  • إعلان

    public func gradient<T, R>(
      at x: T,
      in f: @differentiable (T) -> Tensor<R>
    ) -> T.TangentVector where T: Differentiable, R: TensorFlowFloatingPoint
  • إعلان

    public func gradient<T, U, R>(
      at x: T,
      _ y: U,
      in f: @differentiable (T, U) -> Tensor<R>
    ) -> (T.TangentVector, U.TangentVector)
    where T: Differentiable, U: Differentiable, R: TensorFlowFloatingPoint
  • إعلان

    public func gradient<T, U, V, R>(
      at x: T,
      _ y: U,
      _ z: V,
      in f: @differentiable (T, U, V) -> Tensor<R>
    ) -> (T.TangentVector, U.TangentVector, V.TangentVector)
    where T: Differentiable, U: Differentiable, V: Differentiable, R: TensorFlowFloatingPoint
  • إعلان

    public func gradient<T, R>(
      of f: @escaping @differentiable (T) -> Tensor<R>
    ) -> (T) -> T.TangentVector where T: Differentiable, R: TensorFlowFloatingPoint
  • إعلان

    public func gradient<T, U, R>(
      of f: @escaping @differentiable (T, U) -> Tensor<R>
    ) -> (T, U) -> (T.TangentVector, U.TangentVector)
    where T: Differentiable, U: Differentiable, R: TensorFlowFloatingPoint
  • إعلان

    public func gradient<T, U, V, R>(
      of f: @escaping @differentiable (T, U, V) -> Tensor<R>
    ) -> (T, U, V) -> (T.TangentVector, U.TangentVector, V.TangentVector)
    where T: Differentiable, U: Differentiable, V: Differentiable, R: TensorFlowFloatingPoint
  • قم بإعادة حساب دالة في سحبها ، والمعروف باسم "checkpointing" في التفاضل التلقائي التقليدي.

    إعلان

    public func withRecomputationInPullbacks<T, U>(
      _ body: @escaping @differentiable (T) -> U
    ) -> @differentiable (T) -> U where T : Differentiable, U : Differentiable
  • قم بإنشاء دالة قابلة للتفاضل من دالة منتجات Vector-Jacobian.

    إعلان

    public func differentiableFunction<T : Differentiable, R : Differentiable>(
      from vjp: @escaping (T)
               -> (value: R, pullback: (R.TangentVector) -> T.TangentVector)
    ) -> @differentiable (T) -> R
  • قم بإنشاء دالة قابلة للتفاضل من دالة منتجات Vector-Jacobian.

    إعلان

    public func differentiableFunction<T, U, R>(
      from vjp: @escaping (T, U)
               -> (value: R, pullback: (R.TangentVector)
                 -> (T.TangentVector, U.TangentVector))
    ) -> @differentiable (T, U) -> R
  • عوائد x مثل وظيفة الهوية. عند استخدامها في سياق آخر، حيث x يتم متباينة فيما يتعلق، فإن هذه الوظيفة لا تنتج أي المشتقة عند x .

    إعلان

    @_semantics("autodiff.nonvarying")
    public func withoutDerivative<T>(at x: T) -> T
  • ينطبق إغلاق تعطى body إلى x . عند استخدامها في سياق آخر، حيث x يتم متباينة فيما يتعلق، فإن هذه الوظيفة لا تنتج أي المشتقة عند x .

    إعلان

    @_semantics("autodiff.nonvarying")
    public func withoutDerivative<T, R>(at x: T, in body: (T) -> R) -> R
  • ينفذ إغلاقًا ، مما يجعل عمليات TensorFlow تعمل على نوع معين من الأجهزة.

    إعلان

    public func withDevice<R>(
      _ kind: DeviceKind,
      _ index: UInt = 0,
      perform body: () throws -> R
    ) rethrows -> R

    العوامل

    kind

    نوع من الأجهزة لتشغيل عمليات TensorFlow.

    index

    الجهاز المراد تشغيل العمليات عليه.

    body

    إغلاق يتم تنفيذ عمليات TensorFlow الخاصة به على نوع الجهاز المحدد.

  • ينفذ الإغلاق ، مما يجعل عمليات TensorFlow تعمل على جهاز باسم محدد.

    بعض الأمثلة على أسماء الأجهزة:

    • "/ الجهاز: وحدة المعالجة المركزية: 0": وحدة المعالجة المركزية لجهازك.
    • "/ GPU: 0": تدوين مختصر لأول GPU بجهازك يكون مرئيًا لـ TensorFlow
    • "/ job: localhost / replica: 0 / task: 0 / device: GPU: 1": اسم مؤهل تمامًا لوحدة معالجة الرسومات الثانية لجهازك المرئي لـ TensorFlow.

    إعلان

    public func withDevice<R>(named name: String, perform body: () throws -> R) rethrows -> R

    العوامل

    name

    اسم الجهاز.

    body

    إغلاق يتم تنفيذ عمليات TensorFlow الخاصة به على نوع الجهاز المحدد.

  • ينفذ إغلاقًا ، مما يسمح لـ TensorFlow بوضع عمليات TensorFlow على أي جهاز. يجب أن يؤدي هذا إلى استعادة سلوك الموضع الافتراضي.

    إعلان

    public func withDefaultDevice<R>(perform body: () throws -> R) rethrows -> R

    العوامل

    body

    إغلاق يتم تنفيذ عمليات TensorFlow الخاصة به على نوع الجهاز المحدد.

  • تغيير حجم الصور إلى الحجم باستخدام الطريقة المحددة.

    شرط مسبق

    يجب أن يكون الصور رتبة 3 أو 4 .

    شرط مسبق

    يجب أن يكون الحجم موجبًا.

    إعلان

    @differentiable(wrt: images)
    public func resize(
      images: Tensor<Float>,
      size: (newHeight: Int, newWidth: Int),
      method: ResizeMethod = .bilinear,
      antialias: Bool = false
    ) -> Tensor<Float>

    العوامل

    images

    4-D Tensor الشكل [batch, height, width, channels] أو 3-D Tensor الشكل [height, width, channels] .

    size

    الحجم الجديد للصور.

    method

    طريقة تغيير الحجم. القيمة الافتراضية هي .bilinear .

    antialias

    المنتدى true ، استخدم فلتر تنعيم عندما الاختزال صورة.

  • قم بتغيير حجم الصور إلى الحجم باستخدام استيفاء المنطقة.

    شرط مسبق

    يجب أن يكون الصور رتبة 3 أو 4 .

    شرط مسبق

    يجب أن يكون الحجم موجبًا.

    إعلان

    public func resizeArea<Scalar: TensorFlowNumeric>(
      images: Tensor<Scalar>,
      size: (newHeight: Int, newWidth: Int),
      alignCorners: Bool = false
    ) -> Tensor<Float>

    العوامل

    images

    4-D Tensor الشكل [batch, height, width, channels] أو 3-D Tensor الشكل [height, width, channels] .

    size

    الحجم الجديد للصور.

  • يُرجع تمددًا ثنائي الأبعاد مع الإدخال المحدد ، والفلتر ، والخطوات ، والحشو.

    شرط مسبق

    input يجب أن يكون رتبة 4 .

    شرط مسبق

    filter يجب أن يكون رتبة 3 .

    إعلان

    @differentiable(wrt: (input, filter)
    public func dilation2D<Scalar: TensorFlowFloatingPoint>(
      _ input: Tensor<Scalar>,
      filter: Tensor<Scalar>,
      strides: (Int, Int, Int, Int) = (1, 1, 1, 1),
      rates: (Int, Int, Int, Int) = (1, 1, 1, 1),
      padding: Padding = .valid
    ) -> Tensor<Scalar>

    العوامل

    input

    المدخل.

    filter

    مرشح التمدد.

    strides

    خطوات المرشح المنزلق لكل بُعد من أبعاد الإدخال.

    padding

    المساحة المتروكة للعملية

    rates

    معدلات التمدد لكل بعد من أبعاد المدخلات.

  • تُرجع تآكلًا ثنائي الأبعاد مع الإدخال المحدد ، والفلتر ، والخطوات ، والحشو.

    شرط مسبق

    input يجب أن يكون رتبة 4 .

    شرط مسبق

    filter يجب أن يكون رتبة 3.

    إعلان

    @differentiable(wrt: (input, filter)
    public func erosion2D<Scalar: TensorFlowFloatingPoint>(
      _ input: Tensor<Scalar>,
      filter: Tensor<Scalar>,
      strides: (Int, Int, Int, Int) = (1, 1, 1, 1),
      rates: (Int, Int, Int, Int) = (1, 1, 1, 1),
      padding: Padding = .valid
    ) -> Tensor<Scalar>

    العوامل

    input

    المدخل.

    filter

    مرشح التعرية.

    strides

    خطوات المرشح المنزلق لكل بُعد من أبعاد الإدخال.

    padding

    المساحة المتروكة للعملية

    rates

    معدلات التمدد لكل بعد من أبعاد المدخلات.

  • تُرجع دالة تُنشئ موترًا بتهيئة كل قيمه إلى أصفار.

    إعلان

    public func zeros<Scalar>() -> ParameterInitializer<Scalar> where Scalar : TensorFlowFloatingPoint
  • تُرجع دالة تُنشئ موترًا بتهيئة كل قيمه إلى القيمة المقدمة.

    إعلان

    public func constantInitializer<Scalar: TensorFlowFloatingPoint>(
      value: Scalar
    ) -> ParameterInitializer<Scalar>
  • تُرجع دالة تُنشئ موترًا بتهيئتها إلى القيمة المقدمة. لاحظ أن البث من القيمة المقدمة غير معتمد.

    إعلان

    public func constantInitializer<Scalar: TensorFlowFloatingPoint>(
      value: Tensor<Scalar>
    ) -> ParameterInitializer<Scalar>
  • عائدات وظيفة أن يخلق موتر عن طريق أداء Glorot (كزافييه) التهيئة موحدة لشكل محدد، وأخذ العينات عشوائيا القيم العددية من توزيع الزي الرسمي بين -limit و limit ، التي تم إنشاؤها بواسطة مولد رقم عشوائي الافتراضي، حيث الحد الأقصى هو sqrt(6 / (fanIn + fanOut)) ، و fanIn / fanOut تمثيل عدد من المدخلات والمخرجات ملامح مضروبا في الحقل تقبلا، إذا كان موجودا.

    إعلان

    public func glorotUniform<Scalar: TensorFlowFloatingPoint>(
      seed: TensorFlowSeed = Context.local.randomSeed
    ) -> ParameterInitializer<Scalar>
  • عائدات وظيفة أن يخلق موتر عن طريق أداء Glorot (كزافييه) التهيئة العادية للشكل المحدد، وأخذ العينات عشوائيا القيم العددية من توزيع العادي اقتطاع تركزت على 0 مع الانحراف المعياري sqrt(2 / (fanIn + fanOut)) ، حيث fanIn / fanOut يمثل عدد ميزات الإدخال والإخراج مضروبة في حجم الحقل المستقبلي ، إن وجد.

    إعلان

    public func glorotNormal<Scalar: TensorFlowFloatingPoint>(
      seed: TensorFlowSeed = Context.local.randomSeed
    ) -> ParameterInitializer<Scalar>
  • عائدات وظيفة أن يخلق موتر عن طريق أداء و(Kaiming) التهيئة موحدة لشكل معين، وأخذ العينات عشوائيا القيم العددية من توزيع الزي الرسمي بين -limit و limit ، التي تم إنشاؤها بواسطة مولد رقم عشوائي الافتراضي، حيث الحد هو sqrt(6 / fanIn) ، و fanIn يمثل عدد من الميزات مدخلات مضروبا في الحقل تقبلا، إذا كان موجودا.

    إعلان

    public func heUniform<Scalar: TensorFlowFloatingPoint>(
      seed: TensorFlowSeed = Context.local.randomSeed
    ) -> ParameterInitializer<Scalar>
  • عائدات وظيفة أن يخلق موتر عن طريق أداء و(Kaiming) التهيئة العادية لشكل محدد، وأخذ العينات عشوائيا القيم العددية من توزيع العادي اقتطاع تركزت على 0 بانحراف معياري sqrt(2 / fanIn) ، حيث fanIn يمثل عدد من الميزات مدخلات مضروبة في حجم المجال المتلقي ، إن وجد.

    إعلان

    public func heNormal<Scalar: TensorFlowFloatingPoint>(
      seed: TensorFlowSeed = Context.local.randomSeed
    ) -> ParameterInitializer<Scalar>
  • عائدات وظيفة أن يخلق موتر عن طريق أداء LeCun موحدة التهيئة للشكل المحدد، وأخذ العينات عشوائيا القيم العددية من توزيع الزي الرسمي بين -limit و limit ، التي تم إنشاؤها بواسطة مولد رقم عشوائي الافتراضي، حيث الحد هو sqrt(3 / fanIn) ، و fanIn يمثل عدد من الميزات مدخلات مضروبا في الحقل تقبلا، إذا كان موجودا.

    إعلان

    public func leCunUniform<Scalar: TensorFlowFloatingPoint>(
      seed: TensorFlowSeed = Context.local.randomSeed
    ) -> ParameterInitializer<Scalar>
  • عائدات وظيفة أن يخلق موتر عن طريق أداء LeCun التهيئة العادية للشكل المحدد، وأخذ العينات عشوائيا القيم العددية من توزيع العادي اقتطاع تركزت على 0 بانحراف معياري sqrt(1 / fanIn) ، حيث fanIn يمثل عدد من المدخلات ميزات مضروبا في حجم المجال المستقبلي ، إن وجد.

    إعلان

    public func leCunNormal<Scalar: TensorFlowFloatingPoint>(
      seed: TensorFlowSeed = Context.local.randomSeed
    ) -> ParameterInitializer<Scalar>
  • تُرجع دالة تُنشئ موترًا عن طريق تهيئة جميع قيمه عشوائيًا من توزيع عادي مقتطع. القيم الناتجة تتبع التوزيع الطبيعي بمتوسط mean والانحراف المعياري standardDeviation ، إلا أن القيم التي بلغت قوته أكثر من يتم إسقاط اثنين الانحرافات المعيارية من الوسط والوصله.

    إعلان

    public func truncatedNormalInitializer<Scalar: TensorFlowFloatingPoint>(
      mean: Tensor<Scalar> = Tensor<Scalar>(0),
      standardDeviation: Tensor<Scalar> = Tensor<Scalar>(1),
      seed: TensorFlowSeed = Context.local.randomSeed
    ) -> ParameterInitializer<Scalar>

    العوامل

    mean

    متوسط ​​التوزيع الطبيعي.

    standardDeviation

    الانحراف المعياري للتوزيع الطبيعي.

    قيمة الإرجاع

    وظيفة مُهيئ المعلمة العادية المقطوعة.

  • إعلان

    public func == (lhs: TFETensorHandle, rhs: TFETensorHandle) -> Bool
  • تُرجع مصفوفة الهوية أو مجموعة من المصفوفات.

    إعلان

    public func eye<Scalar: Numeric>(
      rowCount: Int,
      columnCount: Int? = nil,
      batchShape: [Int] = [],
      on device: Device = .default
    ) -> Tensor<Scalar>

    العوامل

    rowCount

    عدد الصفوف في كل مصفوفة دفعية.

    columnCount

    عدد الأعمدة في كل مصفوفة دفعية.

    batchShape

    أبعاد الدُفعة البادئة للموتر المرتجع.

  • لحساب تتبع مصفوفة مجمعة اختياريًا. التتبع هو المجموع على طول القطر الرئيسي لكل مصفوفة داخلية.

    دخل هو موتر مع شكل [..., M, N] . الإخراج هو موتر مع شكل [...] .

    شرط مسبق

    matrix يجب أن يكون موتر مع شكل [..., M, N] .

    إعلان

    @differentiable(wrt: matrix)
    public func trace<T>(_ matrix: Tensor<T>) -> Tensor<T> where T : Numeric, T : TensorFlowScalar

    العوامل

    matrix

    A موتر من شكل [..., M, N] .

  • إرجاع تحلل تشوليسكي لواحد أو أكثر من المصفوفات المربعة.

    دخل هو ممتد من شكل [..., M, M] التي تشكل مصفوفات مربع 2 أبعاد معظم الداخلي.

    يجب أن يكون الإدخال متماثلًا وإيجابيًا محددًا. سيتم استخدام الجزء المثلث السفلي فقط لهذه العملية. لن يتم قراءة الجزء العلوي المثلث.

    الإخراج هو ممتد من نفس شكل المدخلات التي تحتوي على التحليلات Cholesky لجميع submatrices إدخال [..., :, :] .

    إعلان

    @differentiable
    public func cholesky<T>(_ x: Tensor<T>) -> Tensor<T> where T : TensorFlowFloatingPoint

    العوامل

    input

    A موتر من شكل [..., M, M] .

  • عوائد الحل x لنظام المعادلات الخطية يمثلها Ax = b .

    شرط مسبق

    matrix يجب أن يكون موتر مع شكل [..., M, M] .

    شرط مسبق

    rhs يجب أن يكون موتر مع شكل [..., M, K] .

    إعلان

    @differentiable
    public func triangularSolve<T: TensorFlowFloatingPoint>(
      matrix: Tensor<T>,
      rhs: Tensor<T>,
      lower: Bool = true,
      adjoint: Bool = false
    ) -> Tensor<T>

    العوامل

    matrix

    دخل الثلاثي معامل المصفوفة، وهو ما يمثل A في Ax = b .

    rhs

    قيم الجانب الأيمن، وهو ما يمثل b في Ax = b .

    lower

    سواء matrix هي أقل الثلاثي ( true ) أو الثلاثي العلوي ( false ). القيمة الافتراضية هي true .

    adjoint

    إذا true ، حل مع adjoint من matrix بدلا من matrix . القيمة الافتراضية هي false .

    قيمة الإرجاع

    الحل x لنظام المعادلات الخطية يمثله Ax = b . x لديه نفس شكل b .

  • يحسب الخسارة L1 بين expected و predicted . loss = reduction(abs(expected - predicted))

    إعلان

    @differentiable(wrt: predicted)
    @differentiable(wrt: (predicted, expected)
    public func l1Loss<Scalar: TensorFlowFloatingPoint>(
      predicted: Tensor<Scalar>,
      expected: Tensor<Scalar>,
      reduction: @differentiable (Tensor<Scalar>) -> Tensor<Scalar> = _sum
    ) -> Tensor<Scalar>

    العوامل

    predicted

    النواتج المتوقعة من الشبكة العصبية.

    expected

    القيم المتوقعة ، أي الأهداف ، التي تتوافق مع المخرجات الصحيحة.

    reduction

    يتم تطبيق التخفيض على قيم خسارة العناصر المحسوبة.

  • يحسب الخسارة L2 بين expected و predicted . loss = reduction(square(expected - predicted))

    إعلان

    @differentiable(wrt: predicted)
    @differentiable(wrt: (predicted, expected)
    public func l2Loss<Scalar: TensorFlowFloatingPoint>(
      predicted: Tensor<Scalar>,
      expected: Tensor<Scalar>,
      reduction: @differentiable (Tensor<Scalar>) -> Tensor<Scalar> = _sum
    ) -> Tensor<Scalar>

    العوامل

    predicted

    النواتج المتوقعة من الشبكة العصبية.

    expected

    القيم المتوقعة ، أي الأهداف ، التي تتوافق مع المخرجات الصحيحة.

    reduction

    يتم تطبيق التخفيض على قيم خسارة العناصر المحسوبة.

  • يحسب متوسط ​​الاختلاف المطلق بين التسميات والتنبؤات. loss = mean(abs(expected - predicted))

    إعلان

    @differentiable(wrt: predicted)
    @differentiable(wrt: (predicted, expected)
    public func meanAbsoluteError<Scalar: TensorFlowFloatingPoint>(
      predicted: Tensor<Scalar>,
      expected: Tensor<Scalar>
    ) -> Tensor<Scalar>

    العوامل

    predicted

    النواتج المتوقعة من الشبكة العصبية.

    expected

    القيم المتوقعة ، أي الأهداف ، التي تتوافق مع الناتج الصحيح.

  • يحسب متوسط ​​مربعات الأخطاء بين التسميات والتنبؤات. loss = mean(square(expected - predicted))

    إعلان

    @differentiable(wrt: predicted)
    @differentiable(wrt: (predicted, expected)
    public func meanSquaredError<Scalar: TensorFlowFloatingPoint>(
      predicted: Tensor<Scalar>,
      expected: Tensor<Scalar>
    ) -> Tensor<Scalar>

    العوامل

    predicted

    النواتج المتوقعة من الشبكة العصبية.

    expected

    القيم المتوقعة ، أي الأهداف ، التي تتوافق مع الناتج الصحيح.

  • يحسب الخطأ لوغاريتمي التربيعية متوسط بين predicted و expected loss = square(log(expected) - log(predicted))

    ملحوظة

    سيتم فرضت قيود موتر السلبية في 0 لتجنب السلوك لوغاريتمي غير معروف، كما log(_:) غير معرفة لريال السلبية.

    إعلان

    @differentiable(wrt: predicted)
    @differentiable(wrt: (predicted, expected)
    public func meanSquaredLogarithmicError<Scalar: TensorFlowFloatingPoint>(
      predicted: Tensor<Scalar>,
      expected: Tensor<Scalar>
    ) -> Tensor<Scalar>

    العوامل

    predicted

    النواتج المتوقعة من الشبكة العصبية.

    expected

    القيم المتوقعة ، أي الأهداف ، التي تتوافق مع الناتج الصحيح.

  • يحسب الخطأ نسبة المطلقة متوسط بين predicted و expected . loss = 100 * mean(abs((expected - predicted) / abs(expected)))

    إعلان

    @differentiable(wrt: predicted)
    @differentiable(wrt: (predicted, expected)
    public func meanAbsolutePercentageError<Scalar: TensorFlowFloatingPoint>(
      predicted: Tensor<Scalar>,
      expected: Tensor<Scalar>
    ) -> Tensor<Scalar>

    العوامل

    predicted

    النواتج المتوقعة من الشبكة العصبية.

    expected

    القيم المتوقعة ، أي الأهداف ، التي تتوافق مع الناتج الصحيح.

  • يحسب الخسارة المفصلي بين predicted و expected . loss = reduction(max(0, 1 - predicted * expected)) expected من المتوقع أن تكون القيم -1 أو 1.

    إعلان

    @differentiable(wrt: predicted)
    @differentiable(wrt: (predicted, expected)
    public func hingeLoss<Scalar: TensorFlowFloatingPoint>(
      predicted: Tensor<Scalar>,
      expected: Tensor<Scalar>,
      reduction: @differentiable (Tensor<Scalar>) -> Tensor<Scalar> = _mean
    ) -> Tensor<Scalar>

    العوامل

    predicted

    النواتج المتوقعة من الشبكة العصبية.

    expected

    القيم المتوقعة ، أي الأهداف ، التي تتوافق مع المخرجات الصحيحة.

    reduction

    يتم تطبيق التخفيض على قيم خسارة العناصر المحسوبة.

  • يحسب الخسارة المفصلي المربعة بين predicted و expected . loss = reduction(square(max(0, 1 - predicted * expected))) expected من المتوقع أن تكون القيم -1 أو 1.

    إعلان

    @differentiable(wrt: predicted)
    @differentiable(wrt: (predicted, expected)
    public func squaredHingeLoss<Scalar: TensorFlowFloatingPoint>(
      predicted: Tensor<Scalar>,
      expected: Tensor<Scalar>,
      reduction: @differentiable (Tensor<Scalar>) -> Tensor<Scalar> = _mean
    ) -> Tensor<Scalar>

    العوامل

    predicted

    النواتج المتوقعة من الشبكة العصبية.

    expected

    القيم المتوقعة ، أي الأهداف ، التي تتوافق مع الناتج الصحيح.

    reduction

    يتم تطبيق التخفيض على قيم خسارة العناصر المحسوبة.

  • يحسب الخسارة المفصلي القاطع بين predicted و expected . loss = maximum(negative - positive + 1, 0) حيث negative = max((1 - expected) * predicted) و positive = sum(predicted * expected)

    إعلان

    @differentiable(wrt: predicted)
    @differentiable(wrt: (predicted, expected)
    public func categoricalHingeLoss<Scalar: TensorFlowFloatingPoint>(
      predicted: Tensor<Scalar>,
      expected: Tensor<Scalar>,
      reduction: @differentiable (Tensor<Scalar>) -> Tensor<Scalar> = _mean
    ) -> Tensor<Scalar>

    العوامل

    predicted

    النواتج المتوقعة من الشبكة العصبية.

    expected

    القيم المتوقعة ، أي الأهداف ، التي تتوافق مع الناتج الصحيح.

    reduction

    يتم تطبيق التخفيض على قيم خسارة العناصر المحسوبة.

  • لحساب لوغاريتم جيب التمام الزائدي لخطأ التنبؤ. logcosh = log((exp(x) + exp(-x))/2) ، حيث الخطأ س predicted - expected

    إعلان

    @differentiable(wrt: predicted)
    @differentiable(wrt: (predicted, expected)
    public func logCoshLoss<Scalar: TensorFlowFloatingPoint>(
      predicted: Tensor<Scalar>,
      expected: Tensor<Scalar>,
      reduction: @differentiable (Tensor<Scalar>) -> Tensor<Scalar> = _mean
    ) -> Tensor<Scalar>

    العوامل

    predicted

    النواتج المتوقعة من الشبكة العصبية.

    expected

    القيم المتوقعة ، أي الأهداف ، التي تتوافق مع الناتج الصحيح.

    reduction

    يتم تطبيق التخفيض على قيم خسارة العناصر المحسوبة.

  • يحسب الخسارة بواسون بين المتوقع والمنتظر أن فقدان بواسون هو متوسط عناصر Tensor predicted - expected * log(predicted) .

    إعلان

    @differentiable(wrt: predicted)
    @differentiable(wrt: (predicted, expected)
    public func poissonLoss<Scalar: TensorFlowFloatingPoint>(
      predicted: Tensor<Scalar>,
      expected: Tensor<Scalar>,
      reduction: @differentiable (Tensor<Scalar>) -> Tensor<Scalar> = _mean
    ) -> Tensor<Scalar>

    العوامل

    predicted

    النواتج المتوقعة من الشبكة العصبية.

    expected

    القيم المتوقعة ، أي الأهداف ، التي تتوافق مع الناتج الصحيح.

    reduction

    يتم تطبيق التخفيض على قيم خسارة العناصر المحسوبة.

  • فقدان الاختلاف يحسب Kullback-Leibler بين expected و predicted . loss = reduction(expected * log(expected / predicted))

    إعلان

    @differentiable(wrt: predicted)
    @differentiable(wrt: (predicted, expected)
    public func kullbackLeiblerDivergence<Scalar: TensorFlowFloatingPoint>(
      predicted: Tensor<Scalar>,
      expected: Tensor<Scalar>,
      reduction: @differentiable (Tensor<Scalar>) -> Tensor<Scalar> = _sum
    ) -> Tensor<Scalar>

    العوامل

    predicted

    النواتج المتوقعة من الشبكة العصبية.

    expected

    القيم المتوقعة ، أي الأهداف ، التي تتوافق مع الناتج الصحيح.

    reduction

    يتم تطبيق التخفيض على قيم خسارة العناصر المحسوبة.

  • يحسب إنتروبيا softmax المتفرقة (إنتروبيا قاطعة) بين السجلات والتسميات. استخدم وظيفة الخسارة التبادلية هذه عندما يكون هناك فئتان أو أكثر من فئات الملصقات. نتوقع أن يتم توفير التسميات كأعداد صحيحة. ينبغي أن يكون هناك # classes القيم النقطة العائمة في ميزة ل logits واحدة العائمة قيمة النقطة لكل ميزة ل expected .

    إعلان

    @differentiable(wrt: logits)
    public func softmaxCrossEntropy<Scalar: TensorFlowFloatingPoint>(
      logits: Tensor<Scalar>,
      labels: Tensor<Int32>,
      reduction: @differentiable (Tensor<Scalar>) -> Tensor<Scalar> = _mean
    ) -> Tensor<Scalar>

    العوامل

    logits

    نواتج مشفرة ساخنة واحدة من شبكة عصبية.

    labels

    مؤشرات (بدون فهرسة) للمخرجات الصحيحة.

    reduction

    يتم تطبيق التخفيض على قيم خسارة العناصر المحسوبة.

  • لحساب إنتروبيا softmax المتفرقة (إنتروبيا قاطعة) بين السجلات والتسميات. استخدم وظيفة الخسارة التبادلية هذه عندما يكون هناك فئتان أو أكثر من فئات الملصقات. نتوقع العلامات التي ستقدم المقدمة في one_hot التمثيل. ينبغي أن يكون هناك # classes القيم النقطة العائمة في الميزة.

    إعلان

    @differentiable(wrt: logits)
    public func softmaxCrossEntropy<Scalar: TensorFlowFloatingPoint>(
      logits: Tensor<Scalar>,
      probabilities: Tensor<Scalar>,
      reduction: @differentiable (Tensor<Scalar>) -> Tensor<Scalar> = _mean
    ) -> Tensor<Scalar>

    العوامل

    logits

    احتمالات سجل غير مقيسة من شبكة عصبية.

    probabilities

    قيم الاحتمالية التي تتوافق مع الإخراج الصحيح. يجب أن يكون كل صف توزيعًا احتماليًا صالحًا.

    reduction

    يتم تطبيق التخفيض على قيم خسارة العناصر المحسوبة.

  • يحسب الانتروبيا السيني (الانتروبيا الثنائية المتقاطعة) بين السجلات والتسميات. استخدم هذا الخسارة عبر الانتروبيا عندما يكون هناك فئتان فقط من التصنيفات (يفترض أن تكون 0 و 1). لكل مثال ، يجب أن تكون هناك قيمة نقطة عائمة واحدة لكل توقع.

    إعلان

    @differentiable(wrt: logits)
    @differentiable(wrt: (logits, labels)
    public func sigmoidCrossEntropy<Scalar: TensorFlowFloatingPoint>(
      logits: Tensor<Scalar>,
      labels: Tensor<Scalar>,
      reduction: @differentiable (Tensor<Scalar>) -> Tensor<Scalar> = _mean
    ) -> Tensor<Scalar>

    العوامل

    logits

    الإخراج غير المقيس للشبكة العصبية.

    labels

    القيم الصحيحة التي تتوافق مع المخرجات الصحيحة.

    reduction

    يتم تطبيق التخفيض على قيم خسارة العناصر المحسوبة.

  • يحسب الخسارة هوبر بين predicted و expected .

    لكل قيمة x في error = expected - predicted :

    إعلان

    @differentiable(wrt: predicted)
    @differentiable(wrt: (predicted, expected)
    public func huberLoss<Scalar: TensorFlowFloatingPoint>(
      predicted: Tensor<Scalar>,
      expected: Tensor<Scalar>,
      delta: Scalar,
      reduction: @differentiable (Tensor<Scalar>) -> Tensor<Scalar> = _sum
    ) -> Tensor<Scalar>

    العوامل

    predicted

    النواتج المتوقعة من الشبكة العصبية.

    expected

    القيم المتوقعة ، أي الأهداف ، التي تتوافق مع المخرجات الصحيحة.

    delta

    مقياس فاصلة عائمة يمثل النقطة التي تتغير فيها وظيفة خسارة Huber من تربيعي إلى خطي.

    reduction

    يتم تطبيق التخفيض على قيم خسارة العناصر المحسوبة.

  • تُرجع القيمة المطلقة لعنصر الموتر المحدد.

    إعلان

    @differentiable
    public func abs<T>(_ x: Tensor<T>) -> Tensor<T> where T : SignedNumeric, T : TensorFlowScalar
  • إرجاع اللوغاريتم الطبيعي لعنصر الموتر المحدد.

    إعلان

    @differentiable
    public func log<T>(_ x: Tensor<T>) -> Tensor<T> where T : TensorFlowFloatingPoint
  • لعرض لوغاريتم الأساس الثاني لعنصر الموتر المحدد.

    إعلان

    @differentiable
    public func log2<T>(_ x: Tensor<T>) -> Tensor<T> where T : TensorFlowFloatingPoint
  • لعرض اللوغاريتم ذو الأساس العشر لعنصر الموتر المحدد.

    إعلان

    @differentiable
    public func log10<T>(_ x: Tensor<T>) -> Tensor<T> where T : TensorFlowFloatingPoint
  • عودة لوغاريتم 1 + x عنصر الحكيم.

    إعلان

    @differentiable
    public func log1p<T>(_ x: Tensor<T>) -> Tensor<T> where T : TensorFlowFloatingPoint
  • عوائد log(1 - exp(x)) باستخدام نهج عدديا مستقرة.

    ملحوظة

    ويظهر النهج في المعادلة 7 من: https://cran.r-project.org/web/packages/Rmpfr/vignettes/log1mexp-note.pdf .

    إعلان

    @differentiable
    public func log1mexp<T>(_ x: Tensor<T>) -> Tensor<T> where T : TensorFlowFloatingPoint
  • تُرجع الجيب لعنصر الموتر المحدد.

    إعلان

    @differentiable
    public func sin<T>(_ x: Tensor<T>) -> Tensor<T> where T : TensorFlowFloatingPoint
  • إرجاع جيب التمام لعنصر الموتر المحدد.

    إعلان

    @differentiable
    public func cos<T>(_ x: Tensor<T>) -> Tensor<T> where T : TensorFlowFloatingPoint
  • إرجاع ظل عنصر الموتر المحدد من حيث الحكمة.

    إعلان

    @differentiable
    public func tan<T>(_ x: Tensor<T>) -> Tensor<T> where T : TensorFlowFloatingPoint
  • إرجاع الجيب الزائدي لعنصر الموتر المحدد.

    إعلان

    @differentiable
    public func sinh<T>(_ x: Tensor<T>) -> Tensor<T> where T : TensorFlowFloatingPoint
  • إرجاع جيب التمام الزائدي لعنصر الموتر المحدد.

    إعلان

    @differentiable
    public func cosh<T>(_ x: Tensor<T>) -> Tensor<T> where T : TensorFlowFloatingPoint
  • إرجاع الظل الزائدي لعنصر الموتر المحدد.

    إعلان

    @differentiable
    public func tanh<T>(_ x: Tensor<T>) -> Tensor<T> where T : TensorFlowFloatingPoint
  • لعرض جيب التمام العكسي لعنصر الموتر المحدد.

    إعلان

    @differentiable
    public func acos<T>(_ x: Tensor<T>) -> Tensor<T> where T : TensorFlowFloatingPoint
  • إرجاع الجيب المعكوس لعنصر الموتر المحدد.

    إعلان

    @differentiable
    public func asin<T>(_ x: Tensor<T>) -> Tensor<T> where T : TensorFlowFloatingPoint
  • إرجاع الظل المعكوس لعنصر الموتر المحدد.

    إعلان

    @differentiable
    public func atan<T>(_ x: Tensor<T>) -> Tensor<T> where T : TensorFlowFloatingPoint
  • إرجاع جيب التمام المعكوس للقطع الزائد لعنصر الموتر المحدد.

    إعلان

    @differentiable
    public func acosh<T>(_ x: Tensor<T>) -> Tensor<T> where T : TensorFlowFloatingPoint
  • إرجاع الجيب الزائدي العكسي لعنصر الموتر المحدد.

    إعلان

    @differentiable
    public func asinh<T>(_ x: Tensor<T>) -> Tensor<T> where T : TensorFlowFloatingPoint
  • إرجاع الظل المعكوس للقطع الزائد لعنصر الموتر المحدد.

    إعلان

    @differentiable
    public func atanh<T>(_ x: Tensor<T>) -> Tensor<T> where T : TensorFlowFloatingPoint
  • إرجاع الجذر التربيعي لعنصر الموتر المحدد.

    إعلان

    @differentiable
    public func sqrt<T>(_ x: Tensor<T>) -> Tensor<T> where T : TensorFlowFloatingPoint
  • لعرض الجذر التربيعي العكسي لعنصر الموتر المحدد.

    إعلان

    @differentiable
    public func rsqrt<T>(_ x: Tensor<T>) -> Tensor<T> where T : TensorFlowFloatingPoint
  • إرجاع أسي لعنصر الموتر المحدد.

    إعلان

    @differentiable
    public func exp<T>(_ x: Tensor<T>) -> Tensor<T> where T : TensorFlowFloatingPoint
  • إرجاع اثنين مرفوعين إلى قوة عنصر الموتر المحدد.

    إعلان

    @differentiable
    public func exp2<T>(_ x: Tensor<T>) -> Tensor<T> where T : TensorFlowFloatingPoint
  • تُرجع عشرة مرفوعة إلى قوة عنصر الموتر المحدد.

    إعلان

    @differentiable
    public func exp10<T>(_ x: Tensor<T>) -> Tensor<T> where T : TensorFlowFloatingPoint
  • عودة الأسي من x - 1 عنصر الحكيم.

    إعلان

    @differentiable
    public func expm1<T>(_ x: Tensor<T>) -> Tensor<T> where T : TensorFlowFloatingPoint
  • لعرض قيم الموتر المحدد مقربة إلى أقرب عدد صحيح ، حسب العنصر.

    إعلان

    @differentiable
    public func round<T>(_ x: Tensor<T>) -> Tensor<T> where T : TensorFlowFloatingPoint
  • إرجاع سقف عنصر الموتر المحدد من حيث الحكمة.

    إعلان

    @differentiable
    public func ceil<T>(_ x: Tensor<T>) -> Tensor<T> where T : TensorFlowFloatingPoint
  • تُرجع أرضية عنصر الموتر المحدد من حيث الحكمة.

    إعلان

    @differentiable
    public func floor<T>(_ x: Tensor<T>) -> Tensor<T> where T : TensorFlowFloatingPoint
  • يُرجع إشارة إلى علامة عنصر الموتر المحدد من حيث الحكمة. على وجه التحديد، يحسب y = sign(x) = -1 إذا x < 0 . 0 إذا x == 0 ؛ 1 إذا x > 0 .

    إعلان

    @differentiable
    public func sign<T>(_ x: Tensor<T>) -> Tensor<T> where T : Numeric, T : TensorFlowScalar
  • إرجاع السيني لعنصر الموتر المحدد. على وجه التحديد، يحسب 1 / (1 + exp(-x)) .

    إعلان

    @differentiable
    public func sigmoid<T>(_ x: Tensor<T>) -> Tensor<T> where T : TensorFlowFloatingPoint
  • تُرجع الدالة log-sigmoid لعنصر الموتر المحدد. على وجه التحديد، log(1 / (1 + exp(-x))) . من أجل الاستقرار العددي، ونحن نستخدم -softplus(-x) .

    إعلان

    @differentiable
    public func logSigmoid<T>(_ x: Tensor<T>) -> Tensor<T> where T : TensorFlowFloatingPoint
  • إرجاع softplus لعنصر الموتر المحدد. على وجه التحديد، يحسب log(exp(features) + 1) .

    إعلان

    @differentiable
    public func softplus<T>(_ features: Tensor<T>) -> Tensor<T> where T : TensorFlowFloatingPoint
  • تُرجع العلامة الناعمة لعنصر الموتر المحدد. على وجه التحديد، يحسب features/ (abs(features) + 1) .

    إعلان

    @differentiable
    public func softsign<T>(_ features: Tensor<T>) -> Tensor<T> where T : TensorFlowFloatingPoint
  • إرجاع softmax للموتر المحدد على طول المحور الأخير. على وجه التحديد، يحسب exp(x) / exp(x).sum(alongAxes: -1) .

    إعلان

    @differentiable
    public func softmax<T>(_ x: Tensor<T>) -> Tensor<T> where T : TensorFlowFloatingPoint
  • إرجاع softmax للموتر المحدد على طول المحور المحدد. على وجه التحديد، يحسب exp(x) / exp(x).sum(alongAxes: axis) .

    إعلان

    @differentiable
    public func softmax<T>(_ x: Tensor<T>, alongAxis axis: Int) -> Tensor<T> where T : TensorFlowFloatingPoint
  • تُرجع قيمة log-softmax لعنصر الموتر المحدد.

    إعلان

    @differentiable
    public func logSoftmax<T>(_ x: Tensor<T>) -> Tensor<T> where T : TensorFlowFloatingPoint
  • إرجاع موتر بتطبيق وحدة خطية أسية. على وجه التحديد، يحسب exp(x) - 1 إذا <0، x خلاف ذلك. انظر سريع ودقيق ديب شبكة التعلم عن طريق وحدات الخطية الأسي (ELUs)

    إعلان

    @differentiable
    public func elu<T>(_ x: Tensor<T>) -> Tensor<T> where T : TensorFlowFloatingPoint
  • تُرجع عمليات تنشيط وحدة الخطأ الغاوسي الخطية (GELU) لعنصر الموتر المحدد.

    على وجه التحديد، gelu يقارب xP(X <= x) ، حيث P(X <= x) هو التوزيع التراكمي ستاندرد التمويه، عن طريق حساب: س * [0.5 * (1 + تان [√ (2 / π) * (س + 0.044715 * x ^ 3)])].

    انظر التمويه خطأ الخطي وحدات .

    إعلان

    @differentiable
    public func gelu<T>(_ x: Tensor<T>) -> Tensor<T> where T : TensorFlowFloatingPoint
  • إرجاع موتر عن طريق تطبيق وظيفة تنشيط ReLU على عنصر الموتر المحدد. على وجه التحديد، يحسب max(0, x) .

    إعلان

    @differentiable
    public func relu<T>(_ x: Tensor<T>) -> Tensor<T> where T : TensorFlowFloatingPoint
  • عائدات موتر من خلال تطبيق وظيفة تفعيل ReLU6، وهي min(max(0, x), 6) .

    إعلان

    @differentiable
    public func relu6<T>(_ x: Tensor<T>) -> Tensor<T> where T : TensorFlowFloatingPoint
  • إرجاع موتر عن طريق تطبيق وظيفة التنشيط ReLU المتسربة على عنصر الموتر المحدد. على وجه التحديد، يحسب max(x, x * alpha) .

    إعلان

    @differentiable(wrt: x)
    public func leakyRelu<T: TensorFlowFloatingPoint>(
      _ x: Tensor<T>,
      alpha: Double = 0.2
    ) -> Tensor<T>
  • عائدات موتر من خلال تطبيق وظيفة تفعيل سلو، وهي scale * alpha * (exp(x) - 1) إذا x < 0 ، و scale * x خلاف ذلك.

    ملحوظة

    تم تصميم هذا ليتم استخدامه مع مبدئي طبقة قياس التباين. يرجى الرجوع إلى الشبكات العصبية الذاتية تطبيع حصول على مزيد من المعلومات.

    إعلان

    @differentiable
    public func selu<T>(_ x: Tensor<T>) -> Tensor<T> where T : TensorFlowFloatingPoint
  • عائدات موتر من خلال تطبيق وظيفة تفعيل حفيف، وهما x * sigmoid(x) .

    المصدر: (راماشاندران وآخرون 2017) "البحث عن وظائف التنشيط" https://arxiv.org/abs/1710.05941

    إعلان

    @differentiable
    public func swish<T>(_ x: Tensor<T>) -> Tensor<T> where T : TensorFlowFloatingPoint
  • عائدات موتر من خلال تطبيق وظيفة تفعيل السيني الصعبة، وهي Relu6(x+3)/6 .

    المصدر: "البحث عن MobileNetV3" (هوارد وآخرون 2019) https://arxiv.org/abs/1905.02244

    إعلان

    @differentiable
    public func hardSigmoid<T>(_ x: Tensor<T>) -> Tensor<T> where T : TensorFlowFloatingPoint
  • عائدات موتر من خلال تطبيق وظيفة تفعيل حفيف الصلبة، وهما x * Relu6(x+3)/6 .

    المصدر: "البحث عن MobileNetV3" (هوارد وآخرون 2019) https://arxiv.org/abs/1905.02244

    إعلان

    @differentiable
    public func hardSwish<T>(_ x: Tensor<T>) -> Tensor<T> where T : TensorFlowFloatingPoint
  • عائدات موتر من خلال تطبيق وظيفة تفعيل مش هما x * tanh(softplus(x)) .

    المصدر: "مش: A الذاتي النظامية غير المطردة-العصبية تنشيط وظيفة" https://arxiv.org/abs/1908.08681

    إعلان

    @differentiable
    public func mish<T>(_ x: Tensor<T>) -> Tensor<T> where T : TensorFlowFloatingPoint
  • إرجاع قوة موتر الأول إلى موتر الثاني.

    إعلان

    @differentiable
    public func pow<T>(_ lhs: Tensor<T>, _ rhs: Tensor<T>) -> Tensor<T> where T : TensorFlowFloatingPoint
  • تُرجع قوة العددية إلى الموتر ، وتبث العدد.

    إعلان

    @differentiable(wrt: rhs)
    public func pow<T>(_ lhs: T, _ rhs: Tensor<T>) -> Tensor<T> where T : TensorFlowFloatingPoint
  • يُرجع قوة الموتر إلى الحجمي ، ويبث العدد.

    إعلان

    @differentiable(wrt: lhs)
    public func pow<T>(_ lhs: Tensor<T>, _ rhs: T) -> Tensor<T> where T : TensorFlowFloatingPoint
  • إرجاع قوة الموتر إلى العددي ، يبث العدد.

    إعلان

    @differentiable
    public func pow<T>(_ x: Tensor<T>, _ n: Int) -> Tensor<T> where T : TensorFlowFloatingPoint
  • إرجاع عنصر من الحكمة n ال الجذرية للموتر.

    إعلان

    @differentiable
    public func root<T>(_ x: Tensor<T>, _ n: Int) -> Tensor<T> where T : TensorFlowFloatingPoint
  • عودة الفرق التربيعية بين x و y .

    إعلان

    @differentiable
    public func squaredDifference<T>(_ x: Tensor<T>, _ y: Tensor<T>) -> Tensor<T> where T : Numeric, T : TensorFlowScalar

    قيمة الإرجاع

    (x - y) ^ 2 .

  • تُرجع الحد الأقصى للعنصر وهو موتران.

    ملحوظة

    max يدعم البث.

    إعلان

    @differentiable
    public func max<T>(_ lhs: Tensor<T>, _ rhs: Tensor<T>) -> Tensor<T> where T : Comparable, T : Numeric, T : TensorFlowScalar
  • ترجع الحد الأقصى من حيث العنصر من الحجمي والموتر ، وتبث الحجمي.

    إعلان

    @differentiable(wrt: rhs)
    public func max<T>(_ lhs: T, _ rhs: Tensor<T>) -> Tensor<T> where T : Comparable, T : Numeric, T : TensorFlowScalar
  • ترجع الحد الأقصى من حيث العنصر من الحجمي والموتر ، وتبث الحجمي.

    إعلان

    @differentiable(wrt: lhs)
    public func max<T>(_ lhs: Tensor<T>, _ rhs: T) -> Tensor<T> where T : Comparable, T : Numeric, T : TensorFlowScalar
  • تُرجع الحد الأدنى من عناصر الموتر وهو عنصر.

    ملحوظة

    min يدعم البث.

    إعلان

    @differentiable
    public func min<T>(_ lhs: Tensor<T>, _ rhs: Tensor<T>) -> Tensor<T> where T : Comparable, T : Numeric, T : TensorFlowScalar
  • إرجاع الحد الأدنى من حيث العنصر من الحجمي والموتر ، يبث الحجمي.

    إعلان

    @differentiable(wrt: rhs)
    public func min<T>(_ lhs: T, _ rhs: Tensor<T>) -> Tensor<T> where T : Comparable, T : Numeric, T : TensorFlowScalar
  • إرجاع الحد الأدنى من حيث العنصر من الحجمي والموتر ، يبث الحجمي.

    إعلان

    @differentiable(wrt: lhs)
    public func min<T>(_ lhs: Tensor<T>, _ rhs: T) -> Tensor<T> where T : Comparable, T : Numeric, T : TensorFlowScalar
  • عودة التشابه جيب التمام بين x و y .

    إعلان

    @differentiable
    public func cosineSimilarity<Scalar: TensorFlowFloatingPoint>(
      _ x: Tensor<Scalar>,
      _ y: Tensor<Scalar>
    ) -> Tensor<Scalar>
  • عوائد المسافة جيب التمام بين x و y . وتعرف المسافة جيب التمام كما 1 - cosineSimilarity(x, y) .

    إعلان

    @differentiable
    public func cosineDistance<Scalar: TensorFlowFloatingPoint>(
      _ x: Tensor<Scalar>,
      _ y: Tensor<Scalar>
    ) -> Tensor<Scalar>
  • يضرب المصفوفة بموتر آخر وينتج النتيجة.

    إعلان

    @differentiable
    public func matmul<Scalar: Numeric>(
      _ lhs: Tensor<Scalar>,
      transposed transposeLhs: Bool = false,
      _ rhs: Tensor<Scalar>,
      transposed transposeRhs: Bool = false
    ) -> Tensor<Scalar>
  • إرجاع التفاف 1-D مع الإدخال المحدد ، والفلتر ، والخطوة ، والحشو.

    شرط مسبق

    input يجب أن يكون رتبة 3 .

    شرط مسبق

    filter يجب أن يكون رتبة 3.

    إعلان

    @differentiable(wrt: (input, filter)
    public func conv1D<Scalar: TensorFlowFloatingPoint>(
      _ input: Tensor<Scalar>,
      filter: Tensor<Scalar>,
      stride: Int = 1,
      padding: Padding = .valid,
      dilation: Int = 1
    ) -> Tensor<Scalar>

    العوامل

    input

    المدخل.

    filter

    مرشح الالتواء.

    stride

    خطوة المرشح المنزلق.

    padding

    المساحة المتروكة للعملية.

    dilation

    عامل التمدد.

  • إرجاع التفاف ثنائي الأبعاد مع الإدخال المحدد ، والفلتر ، والخطوات ، والحشو.

    شرط مسبق

    input يجب أن يكون رتبة 4 .

    شرط مسبق

    filter يجب أن يكون رتبة 4.

    إعلان

    @differentiable(wrt: (input, filter)
    public func conv2D<Scalar: TensorFlowFloatingPoint>(
      _ input: Tensor<Scalar>,
      filter: Tensor<Scalar>,
      strides: (Int, Int, Int, Int) = (1, 1, 1, 1),
      padding: Padding = .valid,
      dilations: (Int, Int, Int, Int) = (1, 1, 1, 1)
    ) -> Tensor<Scalar>

    العوامل

    input

    المدخل.

    filter

    مرشح الالتواء.

    strides

    خطوات المرشح المنزلق لكل بُعد من أبعاد الإدخال.

    padding

    المساحة المتروكة للعملية

    dilations

    عامل التمدد لكل بعد من أبعاد المدخلات.

  • إرجاع التفاف ثنائي الأبعاد مع المدخلات والمرشح والخطوات والحشو المحدد.

    شرط مسبق

    input يجب أن يكون رتبة 4 .

    شرط مسبق

    filter يجب أن يكون رتبة 4.

    إعلان

    @differentiable(wrt: (input, filter)
    public func transposedConv2D<Scalar: TensorFlowFloatingPoint>(
      _ input: Tensor<Scalar>,
      shape: [Int64],
      filter: Tensor<Scalar>,
      strides: (Int, Int, Int, Int) = (1, 1, 1, 1),
      padding: Padding = .valid,
      dilations: (Int, Int, Int, Int) = (1, 1, 1, 1)
    ) -> Tensor<Scalar>

    العوامل

    input

    المدخل.

    shape

    شكل إخراج عملية deconvolution.

    filter

    مرشح الالتواء.

    strides

    خطوات المرشح المنزلق لكل بُعد من أبعاد الإدخال.

    padding

    المساحة المتروكة للعملية

    dilations

    عامل التمدد لكل بعد من أبعاد المدخلات.

  • إرجاع التفاف ثلاثي الأبعاد مع الإدخال المحدد ، والفلتر ، والخطوات ، والحشو والتوسيع.

    شرط مسبق

    input يجب أن يكون رتبة 5 .

    شرط مسبق

    filter يجب أن يكون رتبة 5.

    إعلان

    @differentiable(wrt: (input, filter)
    public func conv3D<Scalar: TensorFlowFloatingPoint>(
      _ input: Tensor<Scalar>,
      filter: Tensor<Scalar>,
      strides: (Int, Int, Int, Int, Int) = (1, 1, 1, 1, 1),
      padding: Padding = .valid,
      dilations: (Int, Int, Int, Int, Int) = (1, 1, 1, 1, 1)
    ) -> Tensor<Scalar>

    العوامل

    input

    المدخل.

    filter

    مرشح الالتواء.

    strides

    خطوات المرشح المنزلق لكل بُعد من أبعاد الإدخال.

    padding

    المساحة المتروكة للعملية.

    dilations

    عامل التمدد لكل بعد من أبعاد المدخلات.

  • إرجاع التفاف عميق ثنائي الأبعاد مع الإدخال المحدد ، والفلتر ، والخطوات ، والحشو.

    شرط مسبق

    input يجب أن يكون رتبة 4.

    شرط مسبق

    filter يجب أن يكون رتبة 4.

    إعلان

    @differentiable(wrt: (input, filter)
    public func depthwiseConv2D<Scalar: TensorFlowFloatingPoint>(
      _ input: Tensor<Scalar>,
      filter: Tensor<Scalar>,
      strides: (Int, Int, Int, Int),
      padding: Padding
    ) -> Tensor<Scalar>

    العوامل

    input

    المدخل.

    filter

    مرشح الالتواء العمق.

    strides

    خطوات المرشح المنزلق لكل بُعد من أبعاد الإدخال.

    padding

    المساحة المتروكة للعملية.

  • تُرجع تجميعًا ثنائي الأبعاد بحد أقصى ، بأحجام المرشح والخطوات والحشو المحدد.

    إعلان

    @differentiable(wrt: input)
    public func maxPool2D<Scalar: TensorFlowFloatingPoint>(
      _ input: Tensor<Scalar>,
      filterSize: (Int, Int, Int, Int),
      strides: (Int, Int, Int, Int),
      padding: Padding
    ) -> Tensor<Scalar>

    العوامل

    input

    المدخل.

    filterSize

    أبعاد نواة التجميع.

    strides

    خطوات المرشح المنزلق لكل بُعد من أبعاد الإدخال.

    padding

    المساحة المتروكة للعملية.

  • تُرجع تجميعًا ثلاثي الأبعاد بحد أقصى بأحجام المرشح والخطوات والحشو المحدد.

    إعلان

    @differentiable(wrt: input)
    public func maxPool3D<Scalar: TensorFlowFloatingPoint>(
      _ input: Tensor<Scalar>,
      filterSize: (Int, Int, Int, Int, Int),
      strides: (Int, Int, Int, Int, Int),
      padding: Padding
    ) -> Tensor<Scalar>

    العوامل

    input

    المدخل.

    filterSize

    أبعاد نواة التجميع.

    strides

    خطوات المرشح المنزلق لكل بُعد من أبعاد الإدخال.

    padding

    المساحة المتروكة للعملية.

  • إرجاع متوسط ​​تجميع ثنائي الأبعاد ، بأحجام المرشح والخطوات والحشو المحدد.

    إعلان

    @differentiable(wrt: input)
    public func avgPool2D<Scalar: TensorFlowFloatingPoint>(
      _ input: Tensor<Scalar>,
      filterSize: (Int, Int, Int, Int),
      strides: (Int, Int, Int, Int),
      padding: Padding
    ) -> Tensor<Scalar>

    العوامل

    input

    المدخل.

    filterSize

    أبعاد نواة التجميع.

    strides

    خطوات المرشح المنزلق لكل بُعد من أبعاد الإدخال.

    padding

    المساحة المتروكة للعملية.

  • إرجاع متوسط ​​تجميع ثلاثي الأبعاد ، بأحجام المرشح والخطوات والحشو المحدد.

    إعلان

    @differentiable(wrt: input)
    public func avgPool3D<Scalar: TensorFlowFloatingPoint>(
      _ input: Tensor<Scalar>,
      filterSize: (Int, Int, Int, Int, Int),
      strides: (Int, Int, Int, Int, Int),
      padding: Padding
    ) -> Tensor<Scalar>

    العوامل

    input

    المدخل.

    filterSize

    أبعاد نواة التجميع.

    strides

    خطوات المرشح المنزلق لكل بُعد من أبعاد الإدخال.

    padding

    حشوة العملية.

  • تُرجع تجميعًا كسريًا ثنائي الأبعاد بحد أقصى ، مع نسب تجميع محددة.

    ملاحظة: fractionalMaxPool لم يكن لديك تنفيذ XLA، وبالتالي قد تكون لها آثار الأداء.

    إعلان

    @differentiable(wrt: input)
    public func fractionalMaxPool2D<Scalar: TensorFlowFloatingPoint>(
      _ input: Tensor<Scalar>,
      poolingRatio: (Double, Double, Double, Double),
      pseudoRandom: Bool = false,
      overlapping: Bool = false,
      deterministic: Bool = false,
      seed: Int64 = 0,
      seed2: Int64 = 0
    ) -> Tensor<Scalar>

    العوامل

    input

    موتر. 4-D مع شكل [batch, height, width, channels] .

    poolingRatio

    قائمة Doubles . تجميع نسبة لكل بعد من input ، وحاليا لا تدعم سوى صف واحد وعمود البعد ويجب أن تكون> = 1.0.

    pseudoRandom

    اختياري Bool . الافتراضي false . عند التعيين إلى true ، ويولد تسلسل تجميع بطريقة شبه عشوائية، وإلا بطريقة عشوائية.

    overlapping

    اختياري Bool . الافتراضي false . عندما مجموعة ل true ، فإنه يعني عند تجميع، يتم استخدام القيم في حدود خلايا تجميع المجاورة من قبل كل من الخلايا.

    deterministic

    والاختياري Bool . عندما مجموعة إلى true ، سيتم استخدام منطقة تجميع ثابتة عند بالتكرار عبر عقدة fractionalMaxPool2D في الرسم البياني حساب.

    seed

    اختياري Int64 . افتراضات إلى 0 . إذا تم ضبطه على أنه غير صفري ، فسيتم تصنيف مولد الأرقام العشوائية بواسطة البذرة المحددة.

    seed2

    اختياري Int64 . افتراضات إلى 0 . بذرة ثانية لتجنب اصطدام البذور.

  • إرجاع نسخة من input حيث يتم نقل القيم من البعد عمق في كتل المكانية إلى الارتفاع والأبعاد العرض.

    على سبيل المثال، نظرا مدخلا من شكل [1, 2, 2, 1] ، data_format = "NHWC" وblock_size = 2:

    x = [[[[1], [2]],
          [[3], [4]]]]
    

    عملية إرادة هذا إخراج موتر من شكل [1, 1, 1, 4] :

    [[[[1, 2, 3, 4]]]]
    

    هنا، وإدخال لديه دفعة من 1 ولكل عنصر من عناصر دفعة لديها شكل [2, 2, 1] ، وإخراج المقابلة سيكون عنصر واحد (أي العرض والارتفاع على حد سواء 1) وسوف يكون لها عمق 4 قنوات (1 * block_size * block_size). شكل العنصر الناتج [1, 1, 4] .

    لموتر الإدخال مع عمق أكبر، وهنا الشكل [1, 2, 2, 3] ، على سبيل المثال

    x = [[[[1, 2, 3], [4, 5, 6]],
          [[7, 8, 9], [10, 11, 12]]]]
    

    هذه العملية، لblock_size 2، سيعود موتر التالية من شكل [1, 1, 1, 12]

    [[[[1, 2, 3, 4, 5, 6, 7, 8, 9, 10, 11, 12]]]]
    

    وبالمثل، للمساهمة التالية من شكل [1 4 4 1] ، وحجم كتلة من 2:

    x = [[[[1],   [2],  [5],  [6]],
          [[3],   [4],  [7],  [8]],
          [[9],  [10], [13],  [14]],
          [[11], [12], [15],  [16]]]]
    

    سوف المشغل عودة موتر التالية من شكل [1 2 2 4] :

    x = [[[[1, 2, 3, 4],
           [5, 6, 7, 8]],
          [[9, 10, 11, 12],
           [13, 14, 15, 16]]]]
    

    شرط مسبق

    input.rank == 4 && b >= 2 .

    شرط مسبق

    يجب أن يكون عدد من الميزات القسمة على مربع b .

    إعلان

    @differentiable(wrt: input)
    public func depthToSpace<Scalar>(_ input: Tensor<Scalar>, blockSize b: Int) -> Tensor<Scalar> where Scalar : TensorFlowScalar
  • إرجاع نسخة من input حيث يتم نقل القيم من الطول والعرض الأبعاد إلى البعد العمق.

    على سبيل المثال، نظرا مدخلا من شكل [1, 2, 2, 1] ، data_format = "NHWC" وblock_size = 2:

    x = [[[[1], [2]],
          [[3], [4]]]]
    

    عملية إرادة هذا إخراج موتر من شكل [1, 1, 1, 4] :

    [[[[1, 2, 3, 4]]]]
    

    هنا، وإدخال لديه دفعة من 1 ولكل عنصر من عناصر دفعة لديها شكل [2, 2, 1] ، وإخراج المقابلة سيكون عنصر واحد (أي العرض والارتفاع على حد سواء 1) وسوف يكون لها عمق 4 قنوات (1 * block_size * block_size). شكل العنصر الناتج [1, 1, 4] .

    لموتر الإدخال مع عمق أكبر، وهنا الشكل [1, 2, 2, 3] ، على سبيل المثال

    x = [[[[1, 2, 3], [4, 5, 6]],
          [[7, 8, 9], [10, 11, 12]]]]
    

    This operation, for block_size of 2, will return the following tensor of shape [1, 1, 1, 12]

    [[[[1, 2, 3, 4, 5, 6, 7, 8, 9, 10, 11, 12]]]]
    

    Similarly, for the following input of shape [1 4 4 1] , and a block size of 2:

    x = [[[[1],   [2],  [5],  [6]],
          [[3],   [4],  [7],  [8]],
          [[9],  [10], [13],  [14]],
          [[11], [12], [15],  [16]]]]
    

    the operator will return the following tensor of shape [1 2 2 4] :

    x = [[[[1, 2, 3, 4],
           [5, 6, 7, 8]],
          [[9, 10, 11, 12],
           [13, 14, 15, 16]]]]
    

    Precondition

    input.rank == 4 && b >= 2 .

    Precondition

    The height of the input must be divisible by b .

    Precondition

    The width of the input must be divisible by b .

    إعلان

    @differentiable(wrt: input)
    public func spaceToDepth<Scalar>(_ input: Tensor<Scalar>, blockSize b: Int) -> Tensor<Scalar> where Scalar : TensorFlowScalar
  • Builds a per-weight optimizer for LARS ( https://arxiv.org/pdf/1708.03888.pdf ).

    إعلان

    public func makeLARS(
      learningRate: Float = 0.01,
      momentum: Float = 0.9,
      trustCoefficient: Float = 0.001,
      nesterov: Bool = false,
      epsilon: Float = 0.0,
      weightDecay: Float = 0.0
    ) -> ParameterGroupOptimizer
  • Builds a SGD based per-weight optimizer.

    إعلان

    public func makeSGD(
      learningRate: Float = 0.01,
      momentum: Float = 0,
      weightDecay: Float = 0,
      nesterov: Bool = false
    ) -> ParameterGroupOptimizer
  • Builds a per-weight optimizer for Adam with weight decay.

    Reference: “Adam - A Method for Stochastic Optimization”

    إعلان

    public func makeAdam(
      learningRate: Float = 0.01,
      beta1: Float = 0.9,
      beta2: Float = 0.999,
      weightDecayRate: Float = 0.01,
      epsilon: Float = 1e-6
    ) -> ParameterGroupOptimizer
  • Generates a new random seed for TensorFlow.

    إعلان

    public func randomSeedForTensorFlow(using seed: TensorFlowSeed? = nil) -> TensorFlowSeed
  • Concatenates two values.

    إعلان

    @differentiable
    public func concatenate<T: Mergeable>(
      _ first: T,
      _ second: T
    ) -> T
  • Adds two values and produces their sum.

    إعلان

    @differentiable
    public func sum<T: Mergeable>(
      _ first: T,
      _ second: T
    ) -> T
  • Averages two values.

    إعلان

    @differentiable
    public func average<T: Mergeable>(
      _ first: T,
      _ second: T
    ) -> T
  • Multiplies two values.

    إعلان

    @differentiable
    public func multiply<T: Mergeable>(
      _ first: T,
      _ second: T
    ) -> T
  • Stack two values.

    إعلان

    @differentiable
    public func stack<T: Mergeable>(
      _ first: T,
      _ second: T
    ) -> T
  • إعلان

    public func PrintX10Metrics()
  • Creates a string summary of a list of training and testing stats.

    إعلان

    public func formatStatistics(_ stats: (train: HostStatistics, test: HostStatistics)) -> String
  • إعلان

    public func formatStatistics(train trainStats: HostStatistics, test testStats: HostStatistics)
      -> String
  • Maps a function over n threads.

    إعلان

    public func runOnNThreads<R>(_ nThreads: Int, _ body: @escaping (Int) -> R) -> [R]