الوظائف التالية متاحة عالميًا.
تُرجع خسارة L1 بين التوقعات والتوقعات.
إعلان
@differentiable(wrt: predicted) @differentiable(wrt: (predicted, expected) public func l1Loss<Scalar: TensorFlowFloatingPoint>( predicted: Tensor<Scalar>, expected: Tensor<Scalar> ) -> Tensor<Scalar>
العوامل
predicted
النواتج المتوقعة من الشبكة العصبية.
expected
القيم المتوقعة ، أي الأهداف ، التي تتوافق مع الناتج الصحيح.
تُرجع خسارة L2 بين التوقعات والتوقعات.
إعلان
@differentiable(wrt: predicted) @differentiable(wrt: (predicted, expected) public func l2Loss<Scalar: TensorFlowFloatingPoint>( predicted: Tensor<Scalar>, expected: Tensor<Scalar> ) -> Tensor<Scalar>
العوامل
predicted
النواتج المتوقعة من الشبكة العصبية.
expected
القيم المتوقعة ، أي الأهداف ، التي تتوافق مع المخرجات الصحيحة.
تُرجع خسارة المفصلة بين التوقعات والتوقعات.
إعلان
@differentiable(wrt: predicted) @differentiable(wrt: (predicted, expected) public func hingeLoss<Scalar: TensorFlowFloatingPoint>( predicted: Tensor<Scalar>, expected: Tensor<Scalar> ) -> Tensor<Scalar>
العوامل
predicted
النواتج المتوقعة من الشبكة العصبية.
expected
القيم المتوقعة ، أي الأهداف ، التي تتوافق مع الناتج الصحيح.
إرجاع خسارة المفصلة التربيعية بين التوقعات والتوقعات.
إعلان
@differentiable(wrt: predicted) @differentiable(wrt: (predicted, expected) public func squaredHingeLoss<Scalar: TensorFlowFloatingPoint>( predicted: Tensor<Scalar>, expected: Tensor<Scalar> ) -> Tensor<Scalar>
العوامل
predicted
النواتج المتوقعة من الشبكة العصبية.
expected
القيم المتوقعة ، أي الأهداف ، التي تتوافق مع المخرجات الصحيحة.
تُرجع خسارة المفصلة الفئوية بين التنبؤات والتوقعات.
إعلان
@differentiable(wrt: predicted) @differentiable(wrt: (predicted, expected) public func categoricalHingeLoss<Scalar: TensorFlowFloatingPoint>( predicted: Tensor<Scalar>, expected: Tensor<Scalar> ) -> Tensor<Scalar>
العوامل
predicted
النواتج المتوقعة من الشبكة العصبية.
expected
القيم المتوقعة ، أي الأهداف ، التي تتوافق مع المخرجات الصحيحة.
لعرض لوغاريتم جيب التمام الزائدي للخطأ بين التنبؤات والتوقعات.
إعلان
@differentiable(wrt: predicted) @differentiable(wrt: (predicted, expected) public func logCoshLoss<Scalar: TensorFlowFloatingPoint>( predicted: Tensor<Scalar>, expected: Tensor<Scalar> ) -> Tensor<Scalar>
العوامل
predicted
النواتج المتوقعة من الشبكة العصبية.
expected
القيم المتوقعة ، أي الأهداف ، التي تتوافق مع الناتج الصحيح.
إرجاع خسارة بواسون بين التوقعات والتوقعات.
إعلان
@differentiable(wrt: predicted) @differentiable(wrt: (predicted, expected) public func poissonLoss<Scalar: TensorFlowFloatingPoint>( predicted: Tensor<Scalar>, expected: Tensor<Scalar> ) -> Tensor<Scalar>
العوامل
predicted
النواتج المتوقعة من الشبكة العصبية.
expected
القيم المتوقعة ، أي الأهداف ، التي تتوافق مع الناتج الصحيح.
إرجاع اختلاف Kullback-Leibler (تباعد KL) بين التوقعات والتنبؤات. وبالنظر الى اثنين توزيعات
p
وq
، KL الاختلاف يحسبp * log(p / q)
.إعلان
@differentiable(wrt: predicted) @differentiable(wrt: (predicted, expected) public func kullbackLeiblerDivergence<Scalar: TensorFlowFloatingPoint>( predicted: Tensor<Scalar>, expected: Tensor<Scalar> ) -> Tensor<Scalar>
العوامل
predicted
النواتج المتوقعة من الشبكة العصبية.
expected
القيم المتوقعة ، أي الأهداف ، التي تتوافق مع الناتج الصحيح.
تُرجع إنتروبيا softmax المتقاطعة (إنتروبيا قاطعة) بين السجلات والتسميات.
إعلان
@differentiable(wrt: logits) public func softmaxCrossEntropy<Scalar: TensorFlowFloatingPoint>( logits: Tensor<Scalar>, probabilities: Tensor<Scalar> ) -> Tensor<Scalar>
العوامل
logits
نواتج مشفرة ساخنة واحدة من شبكة عصبية.
labels
مؤشرات (بدون فهرسة) للمخرجات الصحيحة.
تُرجع إنتروبيا السيني المتقاطعة (إنتروبيا ثنائية متقاطعة) بين السجلات والتسميات.
إعلان
@differentiable(wrt: logits) @differentiable(wrt: (logits, labels) public func sigmoidCrossEntropy<Scalar: TensorFlowFloatingPoint>( logits: Tensor<Scalar>, labels: Tensor<Scalar> ) -> Tensor<Scalar>
العوامل
logits
الإخراج غير المقيس للشبكة العصبية.
labels
القيم الصحيحة التي تتوافق مع المخرجات الصحيحة.
إرجاع موتر بنفس الشكل والكميات مثل الموتر المحدد.
إعلان
@differentiable public func identity<Scalar>(_ x: Tensor<Scalar>) -> Tensor<Scalar> where Scalar : TensorFlowScalar
يستدعي الإغلاق المحدد ضمن سياق يحتوي على كل شيء مطابق للسياق الحالي باستثناء مرحلة التعلم المحددة.
إعلان
public func withContext<R>(_ context: Context, _ body: () throws -> R) rethrows -> R
العوامل
context
السياق الذي سيتم تعيينه قبل استدعاء الإغلاق واستعادته بعد عودة الإغلاق.
body
إغلاق باطل. إذا كان الإغلاق لديه قيمة الإرجاع، ويستخدم هذه القيمة أيضا كقيمة عودة
withContext(_:_:)
وظيفة.قيمة الإرجاع
قيمة الإرجاع، إن وجدت، من
body
الإغلاق.يستدعي الإغلاق المحدد ضمن سياق يحتوي على كل شيء مطابق للسياق الحالي باستثناء مرحلة التعلم المحددة.
إعلان
public func withLearningPhase<R>( _ learningPhase: LearningPhase, _ body: () throws -> R ) rethrows -> R
العوامل
learningPhase
مرحلة التعلم التي سيتم تعيينها قبل استدعاء الإغلاق واستعادته بعد عودة الإغلاق.
body
إغلاق باطل. إذا كان الإغلاق لديه قيمة الإرجاع، ويستخدم هذه القيمة أيضا كقيمة عودة
withLearningPhase(_:_:)
وظيفة.قيمة الإرجاع
قيمة الإرجاع، إن وجدت، من
body
الإغلاق.يستدعي الإغلاق المحدد ضمن سياق يحتوي على كل شيء مطابق للسياق الحالي باستثناء البداية العشوائية المحددة.
إعلان
public func withRandomSeedForTensorFlow<R>( _ randomSeed: TensorFlowSeed, _ body: () throws -> R ) rethrows -> R
العوامل
randomSeed
بذرة عشوائية سيتم تعيينها قبل استدعاء الإغلاق واستعادتها بعد عودة الإغلاق.
body
إغلاق باطل. إذا كان الإغلاق لديه قيمة الإرجاع، ويستخدم هذه القيمة أيضا كقيمة عودة
withRandomSeedForTensorFlow(_:_:)
وظيفة.قيمة الإرجاع
قيمة الإرجاع، إن وجدت، من
body
الإغلاق.يستدعي الإغلاق المحدد ضمن سياق يحتوي على كل شيء مطابق للسياق الحالي باستثناء مولد الأرقام العشوائي المحدد.
إعلان
public func withRandomNumberGeneratorForTensorFlow<G: RandomNumberGenerator, R>( _ randomNumberGenerator: inout G, _ body: () throws -> R ) rethrows -> R
العوامل
randomNumberGenerator
منشئ أرقام عشوائي سيتم تعيينه قبل استدعاء الإغلاق واستعادته بعد عودة الإغلاق.
body
إغلاق باطل. إذا كان الإغلاق لديه قيمة الإرجاع، ويستخدم هذه القيمة أيضا كقيمة عودة
withRandomNumberGeneratorForTensorFlow(_:_:)
وظيفة.قيمة الإرجاع
قيمة الإرجاع، إن وجدت، من
body
الإغلاق.إعلان
public func zip<T: TensorGroup, U: TensorGroup>( _ dataset1: Dataset<T>, _ dataset2: Dataset<U> ) -> Dataset<Zip2TensorGroup<T, U>>
إعلان
public func valueWithGradient<T, R>( at x: T, in f: @differentiable (T) -> Tensor<R> ) -> (value: Tensor<R>, gradient: T.TangentVector) where T: Differentiable, R: TensorFlowFloatingPoint
إعلان
public func valueWithGradient<T, U, R>( at x: T, _ y: U, in f: @differentiable (T, U) -> Tensor<R> ) -> (value: Tensor<R>, gradient: (T.TangentVector, U.TangentVector)) where T: Differentiable, U: Differentiable, R: TensorFlowFloatingPoint
إعلان
public func valueWithGradient<T, U, V, R>( at x: T, _ y: U, _ z: V, in f: @differentiable (T, U, V) -> Tensor<R> ) -> (value: Tensor<R>, gradient: (T.TangentVector, U.TangentVector, V.TangentVector)) where T: Differentiable, U: Differentiable, V: Differentiable, R: TensorFlowFloatingPoint
إعلان
public func valueWithGradient<T, R>( of f: @escaping @differentiable (T) -> Tensor<R> ) -> (T) -> (value: Tensor<R>, gradient: T.TangentVector) where T: Differentiable, R: TensorFlowFloatingPoint
إعلان
public func valueWithGradient<T, U, R>( of f: @escaping @differentiable (T, U) -> Tensor<R> ) -> (T, U) -> (value: Tensor<R>, gradient: (T.TangentVector, U.TangentVector)) where T: Differentiable, U: Differentiable, R: TensorFlowFloatingPoint
إعلان
public func valueWithGradient<T, U, V, R>( of f: @escaping @differentiable (T, U, V) -> Tensor<R> ) -> (T, U, V) -> ( value: Tensor<R>, gradient: (T.TangentVector, U.TangentVector, V.TangentVector) ) where T: Differentiable, U: Differentiable, V: Differentiable, R: TensorFlowFloatingPoint
إعلان
public func gradient<T, R>( at x: T, in f: @differentiable (T) -> Tensor<R> ) -> T.TangentVector where T: Differentiable, R: TensorFlowFloatingPoint
إعلان
public func gradient<T, U, R>( at x: T, _ y: U, in f: @differentiable (T, U) -> Tensor<R> ) -> (T.TangentVector, U.TangentVector) where T: Differentiable, U: Differentiable, R: TensorFlowFloatingPoint
إعلان
public func gradient<T, U, V, R>( at x: T, _ y: U, _ z: V, in f: @differentiable (T, U, V) -> Tensor<R> ) -> (T.TangentVector, U.TangentVector, V.TangentVector) where T: Differentiable, U: Differentiable, V: Differentiable, R: TensorFlowFloatingPoint
إعلان
public func gradient<T, R>( of f: @escaping @differentiable (T) -> Tensor<R> ) -> (T) -> T.TangentVector where T: Differentiable, R: TensorFlowFloatingPoint
إعلان
public func gradient<T, U, R>( of f: @escaping @differentiable (T, U) -> Tensor<R> ) -> (T, U) -> (T.TangentVector, U.TangentVector) where T: Differentiable, U: Differentiable, R: TensorFlowFloatingPoint
إعلان
public func gradient<T, U, V, R>( of f: @escaping @differentiable (T, U, V) -> Tensor<R> ) -> (T, U, V) -> (T.TangentVector, U.TangentVector, V.TangentVector) where T: Differentiable, U: Differentiable, V: Differentiable, R: TensorFlowFloatingPoint
قم بإعادة حساب دالة في سحبها ، والمعروف باسم "checkpointing" في التفاضل التلقائي التقليدي.
إعلان
public func withRecomputationInPullbacks<T, U>( _ body: @escaping @differentiable (T) -> U ) -> @differentiable (T) -> U where T : Differentiable, U : Differentiable
قم بإنشاء دالة قابلة للتفاضل من دالة منتجات Vector-Jacobian.
إعلان
public func differentiableFunction<T : Differentiable, R : Differentiable>( from vjp: @escaping (T) -> (value: R, pullback: (R.TangentVector) -> T.TangentVector) ) -> @differentiable (T) -> R
قم بإنشاء دالة قابلة للتفاضل من دالة منتجات Vector-Jacobian.
إعلان
public func differentiableFunction<T, U, R>( from vjp: @escaping (T, U) -> (value: R, pullback: (R.TangentVector) -> (T.TangentVector, U.TangentVector)) ) -> @differentiable (T, U) -> R
عوائد
x
مثل وظيفة الهوية. عند استخدامها في سياق آخر، حيثx
يتم متباينة فيما يتعلق، فإن هذه الوظيفة لا تنتج أي المشتقة عندx
.إعلان
@_semantics("autodiff.nonvarying") public func withoutDerivative<T>(at x: T) -> T
ينطبق إغلاق تعطى
body
إلىx
. عند استخدامها في سياق آخر، حيثx
يتم متباينة فيما يتعلق، فإن هذه الوظيفة لا تنتج أي المشتقة عندx
.إعلان
@_semantics("autodiff.nonvarying") public func withoutDerivative<T, R>(at x: T, in body: (T) -> R) -> R
ينفذ إغلاقًا ، مما يجعل عمليات TensorFlow تعمل على نوع معين من الأجهزة.
إعلان
public func withDevice<R>( _ kind: DeviceKind, _ index: UInt = 0, perform body: () throws -> R ) rethrows -> R
العوامل
kind
نوع من الأجهزة لتشغيل عمليات TensorFlow.
index
الجهاز المراد تشغيل العمليات عليه.
body
إغلاق يتم تنفيذ عمليات TensorFlow الخاصة به على نوع الجهاز المحدد.
ينفذ الإغلاق ، مما يجعل عمليات TensorFlow تعمل على جهاز باسم محدد.
بعض الأمثلة على أسماء الأجهزة:
- "/ الجهاز: وحدة المعالجة المركزية: 0": وحدة المعالجة المركزية لجهازك.
- "/ GPU: 0": تدوين مختصر لأول GPU بجهازك يكون مرئيًا لـ TensorFlow
- "/ job: localhost / replica: 0 / task: 0 / device: GPU: 1": اسم مؤهل تمامًا لوحدة معالجة الرسومات الثانية لجهازك المرئي لـ TensorFlow.
إعلان
public func withDevice<R>(named name: String, perform body: () throws -> R) rethrows -> R
العوامل
name
اسم الجهاز.
body
إغلاق يتم تنفيذ عمليات TensorFlow الخاصة به على نوع الجهاز المحدد.
ينفذ إغلاقًا ، مما يسمح لـ TensorFlow بوضع عمليات TensorFlow على أي جهاز. يجب أن يؤدي هذا إلى استعادة سلوك الموضع الافتراضي.
إعلان
public func withDefaultDevice<R>(perform body: () throws -> R) rethrows -> R
العوامل
body
إغلاق يتم تنفيذ عمليات TensorFlow الخاصة به على نوع الجهاز المحدد.
تغيير حجم الصور إلى الحجم باستخدام الطريقة المحددة.
شرط مسبق
يجب أن يكون الصور رتبة3
أو4
.شرط مسبق
يجب أن يكون الحجم موجبًا.إعلان
@differentiable(wrt: images) public func resize( images: Tensor<Float>, size: (newHeight: Int, newWidth: Int), method: ResizeMethod = .bilinear, antialias: Bool = false ) -> Tensor<Float>
قم بتغيير حجم الصور إلى الحجم باستخدام استيفاء المنطقة.
شرط مسبق
يجب أن يكون الصور رتبة3
أو4
.شرط مسبق
يجب أن يكون الحجم موجبًا.إعلان
public func resizeArea<Scalar: TensorFlowNumeric>( images: Tensor<Scalar>, size: (newHeight: Int, newWidth: Int), alignCorners: Bool = false ) -> Tensor<Float>
يُرجع تمددًا ثنائي الأبعاد مع الإدخال المحدد ، والفلتر ، والخطوات ، والحشو.
شرط مسبق
input
يجب أن يكون رتبة4
.شرط مسبق
filter
يجب أن يكون رتبة3
.إعلان
@differentiable(wrt: (input, filter) public func dilation2D<Scalar: TensorFlowFloatingPoint>( _ input: Tensor<Scalar>, filter: Tensor<Scalar>, strides: (Int, Int, Int, Int) = (1, 1, 1, 1), rates: (Int, Int, Int, Int) = (1, 1, 1, 1), padding: Padding = .valid ) -> Tensor<Scalar>
العوامل
input
المدخل.
filter
مرشح التمدد.
strides
خطوات المرشح المنزلق لكل بُعد من أبعاد الإدخال.
padding
المساحة المتروكة للعملية
rates
معدلات التمدد لكل بعد من أبعاد المدخلات.
تُرجع تآكلًا ثنائي الأبعاد مع الإدخال المحدد ، والفلتر ، والخطوات ، والحشو.
شرط مسبق
input
يجب أن يكون رتبة4
.شرط مسبق
filter
يجب أن يكون رتبة 3.إعلان
@differentiable(wrt: (input, filter) public func erosion2D<Scalar: TensorFlowFloatingPoint>( _ input: Tensor<Scalar>, filter: Tensor<Scalar>, strides: (Int, Int, Int, Int) = (1, 1, 1, 1), rates: (Int, Int, Int, Int) = (1, 1, 1, 1), padding: Padding = .valid ) -> Tensor<Scalar>
العوامل
input
المدخل.
filter
مرشح التعرية.
strides
خطوات المرشح المنزلق لكل بُعد من أبعاد الإدخال.
padding
المساحة المتروكة للعملية
rates
معدلات التمدد لكل بعد من أبعاد المدخلات.
تُرجع دالة تُنشئ موترًا بتهيئة كل قيمه إلى أصفار.
إعلان
public func zeros<Scalar>() -> ParameterInitializer<Scalar> where Scalar : TensorFlowFloatingPoint
تُرجع دالة تُنشئ موترًا بتهيئة كل قيمه إلى القيمة المقدمة.
إعلان
public func constantInitializer<Scalar: TensorFlowFloatingPoint>( value: Scalar ) -> ParameterInitializer<Scalar>
تُرجع دالة تُنشئ موترًا بتهيئتها إلى القيمة المقدمة. لاحظ أن البث من القيمة المقدمة غير معتمد.
إعلان
public func constantInitializer<Scalar: TensorFlowFloatingPoint>( value: Tensor<Scalar> ) -> ParameterInitializer<Scalar>
عائدات وظيفة أن يخلق موتر عن طريق أداء Glorot (كزافييه) التهيئة موحدة لشكل محدد، وأخذ العينات عشوائيا القيم العددية من توزيع الزي الرسمي بين
-limit
وlimit
، التي تم إنشاؤها بواسطة مولد رقم عشوائي الافتراضي، حيث الحد الأقصى هوsqrt(6 / (fanIn + fanOut))
، وfanIn
/fanOut
تمثيل عدد من المدخلات والمخرجات ملامح مضروبا في الحقل تقبلا، إذا كان موجودا.إعلان
public func glorotUniform<Scalar: TensorFlowFloatingPoint>( seed: TensorFlowSeed = Context.local.randomSeed ) -> ParameterInitializer<Scalar>
عائدات وظيفة أن يخلق موتر عن طريق أداء Glorot (كزافييه) التهيئة العادية للشكل المحدد، وأخذ العينات عشوائيا القيم العددية من توزيع العادي اقتطاع تركزت على
0
مع الانحراف المعياريsqrt(2 / (fanIn + fanOut))
، حيثfanIn
/fanOut
يمثل عدد ميزات الإدخال والإخراج مضروبة في حجم الحقل المستقبلي ، إن وجد.إعلان
public func glorotNormal<Scalar: TensorFlowFloatingPoint>( seed: TensorFlowSeed = Context.local.randomSeed ) -> ParameterInitializer<Scalar>
عائدات وظيفة أن يخلق موتر عن طريق أداء و(Kaiming) التهيئة موحدة لشكل معين، وأخذ العينات عشوائيا القيم العددية من توزيع الزي الرسمي بين
-limit
وlimit
، التي تم إنشاؤها بواسطة مولد رقم عشوائي الافتراضي، حيث الحد هوsqrt(6 / fanIn)
، وfanIn
يمثل عدد من الميزات مدخلات مضروبا في الحقل تقبلا، إذا كان موجودا.إعلان
public func heUniform<Scalar: TensorFlowFloatingPoint>( seed: TensorFlowSeed = Context.local.randomSeed ) -> ParameterInitializer<Scalar>
عائدات وظيفة أن يخلق موتر عن طريق أداء و(Kaiming) التهيئة العادية لشكل محدد، وأخذ العينات عشوائيا القيم العددية من توزيع العادي اقتطاع تركزت على
0
بانحراف معياريsqrt(2 / fanIn)
، حيثfanIn
يمثل عدد من الميزات مدخلات مضروبة في حجم المجال المتلقي ، إن وجد.إعلان
public func heNormal<Scalar: TensorFlowFloatingPoint>( seed: TensorFlowSeed = Context.local.randomSeed ) -> ParameterInitializer<Scalar>
عائدات وظيفة أن يخلق موتر عن طريق أداء LeCun موحدة التهيئة للشكل المحدد، وأخذ العينات عشوائيا القيم العددية من توزيع الزي الرسمي بين
-limit
وlimit
، التي تم إنشاؤها بواسطة مولد رقم عشوائي الافتراضي، حيث الحد هوsqrt(3 / fanIn)
، وfanIn
يمثل عدد من الميزات مدخلات مضروبا في الحقل تقبلا، إذا كان موجودا.إعلان
public func leCunUniform<Scalar: TensorFlowFloatingPoint>( seed: TensorFlowSeed = Context.local.randomSeed ) -> ParameterInitializer<Scalar>
عائدات وظيفة أن يخلق موتر عن طريق أداء LeCun التهيئة العادية للشكل المحدد، وأخذ العينات عشوائيا القيم العددية من توزيع العادي اقتطاع تركزت على
0
بانحراف معياريsqrt(1 / fanIn)
، حيثfanIn
يمثل عدد من المدخلات ميزات مضروبا في حجم المجال المستقبلي ، إن وجد.إعلان
public func leCunNormal<Scalar: TensorFlowFloatingPoint>( seed: TensorFlowSeed = Context.local.randomSeed ) -> ParameterInitializer<Scalar>
تُرجع دالة تُنشئ موترًا عن طريق تهيئة جميع قيمه عشوائيًا من توزيع عادي مقتطع. القيم الناتجة تتبع التوزيع الطبيعي بمتوسط
mean
والانحراف المعياريstandardDeviation
، إلا أن القيم التي بلغت قوته أكثر من يتم إسقاط اثنين الانحرافات المعيارية من الوسط والوصله.إعلان
public func truncatedNormalInitializer<Scalar: TensorFlowFloatingPoint>( mean: Tensor<Scalar> = Tensor<Scalar>(0), standardDeviation: Tensor<Scalar> = Tensor<Scalar>(1), seed: TensorFlowSeed = Context.local.randomSeed ) -> ParameterInitializer<Scalar>
العوامل
mean
متوسط التوزيع الطبيعي.
standardDeviation
الانحراف المعياري للتوزيع الطبيعي.
قيمة الإرجاع
وظيفة مُهيئ المعلمة العادية المقطوعة.
إعلان
public func == (lhs: TFETensorHandle, rhs: TFETensorHandle) -> Bool
تُرجع مصفوفة الهوية أو مجموعة من المصفوفات.
إعلان
العوامل
rowCount
عدد الصفوف في كل مصفوفة دفعية.
columnCount
عدد الأعمدة في كل مصفوفة دفعية.
batchShape
أبعاد الدُفعة البادئة للموتر المرتجع.
لحساب تتبع مصفوفة مجمعة اختياريًا. التتبع هو المجموع على طول القطر الرئيسي لكل مصفوفة داخلية.
دخل هو موتر مع شكل
[..., M, N]
. الإخراج هو موتر مع شكل[...]
.شرط مسبق
matrix
يجب أن يكون موتر مع شكل[..., M, N]
.إعلان
@differentiable(wrt: matrix) public func trace<T>(_ matrix: Tensor<T>) -> Tensor<T> where T : Numeric, T : TensorFlowScalar
العوامل
matrix
A موتر من شكل
[..., M, N]
.إرجاع تحلل تشوليسكي لواحد أو أكثر من المصفوفات المربعة.
دخل هو ممتد من شكل
[..., M, M]
التي تشكل مصفوفات مربع 2 أبعاد معظم الداخلي.يجب أن يكون الإدخال متماثلًا وإيجابيًا محددًا. سيتم استخدام الجزء المثلث السفلي فقط لهذه العملية. لن يتم قراءة الجزء العلوي المثلث.
الإخراج هو ممتد من نفس شكل المدخلات التي تحتوي على التحليلات Cholesky لجميع submatrices إدخال
[..., :, :]
.إعلان
@differentiable public func cholesky<T>(_ x: Tensor<T>) -> Tensor<T> where T : TensorFlowFloatingPoint
العوامل
input
A موتر من شكل
[..., M, M]
.عوائد الحل
x
لنظام المعادلات الخطية يمثلهاAx = b
.شرط مسبق
matrix
يجب أن يكون موتر مع شكل[..., M, M]
.شرط مسبق
rhs
يجب أن يكون موتر مع شكل[..., M, K]
.إعلان
@differentiable public func triangularSolve<T: TensorFlowFloatingPoint>( matrix: Tensor<T>, rhs: Tensor<T>, lower: Bool = true, adjoint: Bool = false ) -> Tensor<T>
العوامل
matrix
دخل الثلاثي معامل المصفوفة، وهو ما يمثل
A
فيAx = b
.rhs
قيم الجانب الأيمن، وهو ما يمثل
b
فيAx = b
.lower
سواء
matrix
هي أقل الثلاثي (true
) أو الثلاثي العلوي (false
). القيمة الافتراضية هيtrue
.adjoint
إذا
true
، حل مع adjoint منmatrix
بدلا منmatrix
. القيمة الافتراضية هيfalse
.قيمة الإرجاع
الحل
x
لنظام المعادلات الخطية يمثلهAx = b
.x
لديه نفس شكلb
.يحسب الخسارة L1 بين
expected
وpredicted
.loss = reduction(abs(expected - predicted))
إعلان
العوامل
predicted
النواتج المتوقعة من الشبكة العصبية.
expected
القيم المتوقعة ، أي الأهداف ، التي تتوافق مع المخرجات الصحيحة.
reduction
يتم تطبيق التخفيض على قيم خسارة العناصر المحسوبة.
يحسب الخسارة L2 بين
expected
وpredicted
.loss = reduction(square(expected - predicted))
إعلان
العوامل
predicted
النواتج المتوقعة من الشبكة العصبية.
expected
القيم المتوقعة ، أي الأهداف ، التي تتوافق مع المخرجات الصحيحة.
reduction
يتم تطبيق التخفيض على قيم خسارة العناصر المحسوبة.
يحسب متوسط الاختلاف المطلق بين التسميات والتنبؤات.
loss = mean(abs(expected - predicted))
إعلان
@differentiable(wrt: predicted) @differentiable(wrt: (predicted, expected) public func meanAbsoluteError<Scalar: TensorFlowFloatingPoint>( predicted: Tensor<Scalar>, expected: Tensor<Scalar> ) -> Tensor<Scalar>
العوامل
predicted
النواتج المتوقعة من الشبكة العصبية.
expected
القيم المتوقعة ، أي الأهداف ، التي تتوافق مع الناتج الصحيح.
يحسب متوسط مربعات الأخطاء بين التسميات والتنبؤات.
loss = mean(square(expected - predicted))
إعلان
@differentiable(wrt: predicted) @differentiable(wrt: (predicted, expected) public func meanSquaredError<Scalar: TensorFlowFloatingPoint>( predicted: Tensor<Scalar>, expected: Tensor<Scalar> ) -> Tensor<Scalar>
العوامل
predicted
النواتج المتوقعة من الشبكة العصبية.
expected
القيم المتوقعة ، أي الأهداف ، التي تتوافق مع الناتج الصحيح.
يحسب الخطأ لوغاريتمي التربيعية متوسط بين
predicted
وexpected
loss = square(log(expected) - log(predicted))
ملحوظة
سيتم فرضت قيود موتر السلبية في
0
لتجنب السلوك لوغاريتمي غير معروف، كماlog(_:)
غير معرفة لريال السلبية.إعلان
@differentiable(wrt: predicted) @differentiable(wrt: (predicted, expected) public func meanSquaredLogarithmicError<Scalar: TensorFlowFloatingPoint>( predicted: Tensor<Scalar>, expected: Tensor<Scalar> ) -> Tensor<Scalar>
العوامل
predicted
النواتج المتوقعة من الشبكة العصبية.
expected
القيم المتوقعة ، أي الأهداف ، التي تتوافق مع الناتج الصحيح.
يحسب الخطأ نسبة المطلقة متوسط بين
predicted
وexpected
.loss = 100 * mean(abs((expected - predicted) / abs(expected)))
إعلان
@differentiable(wrt: predicted) @differentiable(wrt: (predicted, expected) public func meanAbsolutePercentageError<Scalar: TensorFlowFloatingPoint>( predicted: Tensor<Scalar>, expected: Tensor<Scalar> ) -> Tensor<Scalar>
العوامل
predicted
النواتج المتوقعة من الشبكة العصبية.
expected
القيم المتوقعة ، أي الأهداف ، التي تتوافق مع الناتج الصحيح.
يحسب الخسارة المفصلي بين
predicted
وexpected
.loss = reduction(max(0, 1 - predicted * expected))
expected
من المتوقع أن تكون القيم -1 أو 1.إعلان
العوامل
predicted
النواتج المتوقعة من الشبكة العصبية.
expected
القيم المتوقعة ، أي الأهداف ، التي تتوافق مع المخرجات الصحيحة.
reduction
يتم تطبيق التخفيض على قيم خسارة العناصر المحسوبة.
يحسب الخسارة المفصلي المربعة بين
predicted
وexpected
.loss = reduction(square(max(0, 1 - predicted * expected)))
expected
من المتوقع أن تكون القيم -1 أو 1.إعلان
العوامل
predicted
النواتج المتوقعة من الشبكة العصبية.
expected
القيم المتوقعة ، أي الأهداف ، التي تتوافق مع الناتج الصحيح.
reduction
يتم تطبيق التخفيض على قيم خسارة العناصر المحسوبة.
يحسب الخسارة المفصلي القاطع بين
predicted
وexpected
.loss = maximum(negative - positive + 1, 0)
حيثnegative = max((1 - expected) * predicted)
وpositive = sum(predicted * expected)
إعلان
العوامل
predicted
النواتج المتوقعة من الشبكة العصبية.
expected
القيم المتوقعة ، أي الأهداف ، التي تتوافق مع الناتج الصحيح.
reduction
يتم تطبيق التخفيض على قيم خسارة العناصر المحسوبة.
لحساب لوغاريتم جيب التمام الزائدي لخطأ التنبؤ.
logcosh = log((exp(x) + exp(-x))/2)
، حيث الخطأ سpredicted - expected
إعلان
العوامل
predicted
النواتج المتوقعة من الشبكة العصبية.
expected
القيم المتوقعة ، أي الأهداف ، التي تتوافق مع الناتج الصحيح.
reduction
يتم تطبيق التخفيض على قيم خسارة العناصر المحسوبة.
يحسب الخسارة بواسون بين المتوقع والمنتظر أن فقدان بواسون هو متوسط عناصر
Tensor
predicted - expected * log(predicted)
.إعلان
العوامل
predicted
النواتج المتوقعة من الشبكة العصبية.
expected
القيم المتوقعة ، أي الأهداف ، التي تتوافق مع الناتج الصحيح.
reduction
يتم تطبيق التخفيض على قيم خسارة العناصر المحسوبة.
فقدان الاختلاف يحسب Kullback-Leibler بين
expected
وpredicted
.loss = reduction(expected * log(expected / predicted))
إعلان
العوامل
predicted
النواتج المتوقعة من الشبكة العصبية.
expected
القيم المتوقعة ، أي الأهداف ، التي تتوافق مع الناتج الصحيح.
reduction
يتم تطبيق التخفيض على قيم خسارة العناصر المحسوبة.
يحسب إنتروبيا softmax المتفرقة (إنتروبيا قاطعة) بين السجلات والتسميات. استخدم وظيفة الخسارة التبادلية هذه عندما يكون هناك فئتان أو أكثر من فئات الملصقات. نتوقع أن يتم توفير التسميات كأعداد صحيحة. ينبغي أن يكون هناك
# classes
القيم النقطة العائمة في ميزة لlogits
واحدة العائمة قيمة النقطة لكل ميزة لexpected
.إعلان
العوامل
logits
نواتج مشفرة ساخنة واحدة من شبكة عصبية.
labels
مؤشرات (بدون فهرسة) للمخرجات الصحيحة.
reduction
يتم تطبيق التخفيض على قيم خسارة العناصر المحسوبة.
لحساب إنتروبيا softmax المتفرقة (إنتروبيا قاطعة) بين السجلات والتسميات. استخدم وظيفة الخسارة التبادلية هذه عندما يكون هناك فئتان أو أكثر من فئات الملصقات. نتوقع العلامات التي ستقدم المقدمة في
one_hot
التمثيل. ينبغي أن يكون هناك# classes
القيم النقطة العائمة في الميزة.إعلان
العوامل
logits
احتمالات سجل غير مقيسة من شبكة عصبية.
probabilities
قيم الاحتمالية التي تتوافق مع الإخراج الصحيح. يجب أن يكون كل صف توزيعًا احتماليًا صالحًا.
reduction
يتم تطبيق التخفيض على قيم خسارة العناصر المحسوبة.
يحسب الانتروبيا السيني (الانتروبيا الثنائية المتقاطعة) بين السجلات والتسميات. استخدم هذا الخسارة عبر الانتروبيا عندما يكون هناك فئتان فقط من التصنيفات (يفترض أن تكون 0 و 1). لكل مثال ، يجب أن تكون هناك قيمة نقطة عائمة واحدة لكل توقع.
إعلان
العوامل
logits
الإخراج غير المقيس للشبكة العصبية.
labels
القيم الصحيحة التي تتوافق مع المخرجات الصحيحة.
reduction
يتم تطبيق التخفيض على قيم خسارة العناصر المحسوبة.
يحسب الخسارة هوبر بين
predicted
وexpected
.لكل قيمة
x
فيerror = expected - predicted
:-
0.5 * x^2
إذا|x| <= δ
. 0.5 * δ^2 + δ * (|x| - δ)
على خلاف ذلك.المصدر: مقالة ويكيبيديا .
إعلان
العوامل
predicted
النواتج المتوقعة من الشبكة العصبية.
expected
القيم المتوقعة ، أي الأهداف ، التي تتوافق مع المخرجات الصحيحة.
delta
مقياس فاصلة عائمة يمثل النقطة التي تتغير فيها وظيفة خسارة Huber من تربيعي إلى خطي.
reduction
يتم تطبيق التخفيض على قيم خسارة العناصر المحسوبة.
-
تُرجع القيمة المطلقة لعنصر الموتر المحدد.
إعلان
@differentiable public func abs<T>(_ x: Tensor<T>) -> Tensor<T> where T : SignedNumeric, T : TensorFlowScalar
إرجاع اللوغاريتم الطبيعي لعنصر الموتر المحدد.
إعلان
@differentiable public func log<T>(_ x: Tensor<T>) -> Tensor<T> where T : TensorFlowFloatingPoint
لعرض لوغاريتم الأساس الثاني لعنصر الموتر المحدد.
إعلان
@differentiable public func log2<T>(_ x: Tensor<T>) -> Tensor<T> where T : TensorFlowFloatingPoint
لعرض اللوغاريتم ذو الأساس العشر لعنصر الموتر المحدد.
إعلان
@differentiable public func log10<T>(_ x: Tensor<T>) -> Tensor<T> where T : TensorFlowFloatingPoint
عودة لوغاريتم
1 + x
عنصر الحكيم.إعلان
@differentiable public func log1p<T>(_ x: Tensor<T>) -> Tensor<T> where T : TensorFlowFloatingPoint
عوائد
log(1 - exp(x))
باستخدام نهج عدديا مستقرة.ملحوظة
ويظهر النهج في المعادلة 7 من: https://cran.r-project.org/web/packages/Rmpfr/vignettes/log1mexp-note.pdf .إعلان
@differentiable public func log1mexp<T>(_ x: Tensor<T>) -> Tensor<T> where T : TensorFlowFloatingPoint
تُرجع الجيب لعنصر الموتر المحدد.
إعلان
@differentiable public func sin<T>(_ x: Tensor<T>) -> Tensor<T> where T : TensorFlowFloatingPoint
إرجاع جيب التمام لعنصر الموتر المحدد.
إعلان
@differentiable public func cos<T>(_ x: Tensor<T>) -> Tensor<T> where T : TensorFlowFloatingPoint
إرجاع ظل عنصر الموتر المحدد من حيث الحكمة.
إعلان
@differentiable public func tan<T>(_ x: Tensor<T>) -> Tensor<T> where T : TensorFlowFloatingPoint
إرجاع الجيب الزائدي لعنصر الموتر المحدد.
إعلان
@differentiable public func sinh<T>(_ x: Tensor<T>) -> Tensor<T> where T : TensorFlowFloatingPoint
إرجاع جيب التمام الزائدي لعنصر الموتر المحدد.
إعلان
@differentiable public func cosh<T>(_ x: Tensor<T>) -> Tensor<T> where T : TensorFlowFloatingPoint
إرجاع الظل الزائدي لعنصر الموتر المحدد.
إعلان
@differentiable public func tanh<T>(_ x: Tensor<T>) -> Tensor<T> where T : TensorFlowFloatingPoint
لعرض جيب التمام العكسي لعنصر الموتر المحدد.
إعلان
@differentiable public func acos<T>(_ x: Tensor<T>) -> Tensor<T> where T : TensorFlowFloatingPoint
إرجاع الجيب المعكوس لعنصر الموتر المحدد.
إعلان
@differentiable public func asin<T>(_ x: Tensor<T>) -> Tensor<T> where T : TensorFlowFloatingPoint
إرجاع الظل المعكوس لعنصر الموتر المحدد.
إعلان
@differentiable public func atan<T>(_ x: Tensor<T>) -> Tensor<T> where T : TensorFlowFloatingPoint
إرجاع جيب التمام المعكوس للقطع الزائد لعنصر الموتر المحدد.
إعلان
@differentiable public func acosh<T>(_ x: Tensor<T>) -> Tensor<T> where T : TensorFlowFloatingPoint
إرجاع الجيب الزائدي العكسي لعنصر الموتر المحدد.
إعلان
@differentiable public func asinh<T>(_ x: Tensor<T>) -> Tensor<T> where T : TensorFlowFloatingPoint
إرجاع الظل المعكوس للقطع الزائد لعنصر الموتر المحدد.
إعلان
@differentiable public func atanh<T>(_ x: Tensor<T>) -> Tensor<T> where T : TensorFlowFloatingPoint
إرجاع الجذر التربيعي لعنصر الموتر المحدد.
إعلان
@differentiable public func sqrt<T>(_ x: Tensor<T>) -> Tensor<T> where T : TensorFlowFloatingPoint
لعرض الجذر التربيعي العكسي لعنصر الموتر المحدد.
إعلان
@differentiable public func rsqrt<T>(_ x: Tensor<T>) -> Tensor<T> where T : TensorFlowFloatingPoint
إرجاع أسي لعنصر الموتر المحدد.
إعلان
@differentiable public func exp<T>(_ x: Tensor<T>) -> Tensor<T> where T : TensorFlowFloatingPoint
إرجاع اثنين مرفوعين إلى قوة عنصر الموتر المحدد.
إعلان
@differentiable public func exp2<T>(_ x: Tensor<T>) -> Tensor<T> where T : TensorFlowFloatingPoint
تُرجع عشرة مرفوعة إلى قوة عنصر الموتر المحدد.
إعلان
@differentiable public func exp10<T>(_ x: Tensor<T>) -> Tensor<T> where T : TensorFlowFloatingPoint
عودة الأسي من
x - 1
عنصر الحكيم.إعلان
@differentiable public func expm1<T>(_ x: Tensor<T>) -> Tensor<T> where T : TensorFlowFloatingPoint
لعرض قيم الموتر المحدد مقربة إلى أقرب عدد صحيح ، حسب العنصر.
إعلان
@differentiable public func round<T>(_ x: Tensor<T>) -> Tensor<T> where T : TensorFlowFloatingPoint
إرجاع سقف عنصر الموتر المحدد من حيث الحكمة.
إعلان
@differentiable public func ceil<T>(_ x: Tensor<T>) -> Tensor<T> where T : TensorFlowFloatingPoint
تُرجع أرضية عنصر الموتر المحدد من حيث الحكمة.
إعلان
@differentiable public func floor<T>(_ x: Tensor<T>) -> Tensor<T> where T : TensorFlowFloatingPoint
يُرجع إشارة إلى علامة عنصر الموتر المحدد من حيث الحكمة. على وجه التحديد، يحسب
y = sign(x) = -1
إذاx < 0
. 0 إذاx == 0
؛ 1 إذاx > 0
.إعلان
@differentiable public func sign<T>(_ x: Tensor<T>) -> Tensor<T> where T : Numeric, T : TensorFlowScalar
إرجاع السيني لعنصر الموتر المحدد. على وجه التحديد، يحسب
1 / (1 + exp(-x))
.إعلان
@differentiable public func sigmoid<T>(_ x: Tensor<T>) -> Tensor<T> where T : TensorFlowFloatingPoint
تُرجع الدالة log-sigmoid لعنصر الموتر المحدد. على وجه التحديد،
log(1 / (1 + exp(-x)))
. من أجل الاستقرار العددي، ونحن نستخدم-softplus(-x)
.إعلان
@differentiable public func logSigmoid<T>(_ x: Tensor<T>) -> Tensor<T> where T : TensorFlowFloatingPoint
إرجاع softplus لعنصر الموتر المحدد. على وجه التحديد، يحسب
log(exp(features) + 1)
.إعلان
@differentiable public func softplus<T>(_ features: Tensor<T>) -> Tensor<T> where T : TensorFlowFloatingPoint
تُرجع العلامة الناعمة لعنصر الموتر المحدد. على وجه التحديد، يحسب
features/ (abs(features) + 1)
.إعلان
@differentiable public func softsign<T>(_ features: Tensor<T>) -> Tensor<T> where T : TensorFlowFloatingPoint
إرجاع softmax للموتر المحدد على طول المحور الأخير. على وجه التحديد، يحسب
exp(x) / exp(x).sum(alongAxes: -1)
.إعلان
@differentiable public func softmax<T>(_ x: Tensor<T>) -> Tensor<T> where T : TensorFlowFloatingPoint
إرجاع softmax للموتر المحدد على طول المحور المحدد. على وجه التحديد، يحسب
exp(x) / exp(x).sum(alongAxes: axis)
.إعلان
@differentiable public func softmax<T>(_ x: Tensor<T>, alongAxis axis: Int) -> Tensor<T> where T : TensorFlowFloatingPoint
تُرجع قيمة log-softmax لعنصر الموتر المحدد.
إعلان
@differentiable public func logSoftmax<T>(_ x: Tensor<T>) -> Tensor<T> where T : TensorFlowFloatingPoint
إرجاع موتر بتطبيق وحدة خطية أسية. على وجه التحديد، يحسب
exp(x) - 1
إذا <0،x
خلاف ذلك. انظر سريع ودقيق ديب شبكة التعلم عن طريق وحدات الخطية الأسي (ELUs)إعلان
@differentiable public func elu<T>(_ x: Tensor<T>) -> Tensor<T> where T : TensorFlowFloatingPoint
تُرجع عمليات تنشيط وحدة الخطأ الغاوسي الخطية (GELU) لعنصر الموتر المحدد.
على وجه التحديد،
gelu
يقاربxP(X <= x)
، حيثP(X <= x)
هو التوزيع التراكمي ستاندرد التمويه، عن طريق حساب: س * [0.5 * (1 + تان [√ (2 / π) * (س + 0.044715 * x ^ 3)])].انظر التمويه خطأ الخطي وحدات .
إعلان
@differentiable public func gelu<T>(_ x: Tensor<T>) -> Tensor<T> where T : TensorFlowFloatingPoint
إرجاع موتر عن طريق تطبيق وظيفة تنشيط ReLU على عنصر الموتر المحدد. على وجه التحديد، يحسب
max(0, x)
.إعلان
@differentiable public func relu<T>(_ x: Tensor<T>) -> Tensor<T> where T : TensorFlowFloatingPoint
عائدات موتر من خلال تطبيق وظيفة تفعيل ReLU6، وهي
min(max(0, x), 6)
.إعلان
@differentiable public func relu6<T>(_ x: Tensor<T>) -> Tensor<T> where T : TensorFlowFloatingPoint
إرجاع موتر عن طريق تطبيق وظيفة التنشيط ReLU المتسربة على عنصر الموتر المحدد. على وجه التحديد، يحسب
max(x, x * alpha)
.إعلان
@differentiable(wrt: x) public func leakyRelu<T: TensorFlowFloatingPoint>( _ x: Tensor<T>, alpha: Double = 0.2 ) -> Tensor<T>
عائدات موتر من خلال تطبيق وظيفة تفعيل سلو، وهي
scale * alpha * (exp(x) - 1)
إذاx < 0
، وscale * x
خلاف ذلك.ملحوظة
تم تصميم هذا ليتم استخدامه مع مبدئي طبقة قياس التباين. يرجى الرجوع إلى الشبكات العصبية الذاتية تطبيع حصول على مزيد من المعلومات.إعلان
@differentiable public func selu<T>(_ x: Tensor<T>) -> Tensor<T> where T : TensorFlowFloatingPoint
عائدات موتر من خلال تطبيق وظيفة تفعيل حفيف، وهما
x * sigmoid(x)
.المصدر: (راماشاندران وآخرون 2017) "البحث عن وظائف التنشيط" https://arxiv.org/abs/1710.05941
إعلان
@differentiable public func swish<T>(_ x: Tensor<T>) -> Tensor<T> where T : TensorFlowFloatingPoint
عائدات موتر من خلال تطبيق وظيفة تفعيل السيني الصعبة، وهي
Relu6(x+3)/6
.المصدر: "البحث عن MobileNetV3" (هوارد وآخرون 2019) https://arxiv.org/abs/1905.02244
إعلان
@differentiable public func hardSigmoid<T>(_ x: Tensor<T>) -> Tensor<T> where T : TensorFlowFloatingPoint
عائدات موتر من خلال تطبيق وظيفة تفعيل حفيف الصلبة، وهما
x * Relu6(x+3)/6
.المصدر: "البحث عن MobileNetV3" (هوارد وآخرون 2019) https://arxiv.org/abs/1905.02244
إعلان
@differentiable public func hardSwish<T>(_ x: Tensor<T>) -> Tensor<T> where T : TensorFlowFloatingPoint
عائدات موتر من خلال تطبيق وظيفة تفعيل مش هما
x * tanh(softplus(x))
.المصدر: "مش: A الذاتي النظامية غير المطردة-العصبية تنشيط وظيفة" https://arxiv.org/abs/1908.08681
إعلان
@differentiable public func mish<T>(_ x: Tensor<T>) -> Tensor<T> where T : TensorFlowFloatingPoint
إرجاع قوة موتر الأول إلى موتر الثاني.
إعلان
@differentiable public func pow<T>(_ lhs: Tensor<T>, _ rhs: Tensor<T>) -> Tensor<T> where T : TensorFlowFloatingPoint
تُرجع قوة العددية إلى الموتر ، وتبث العدد.
إعلان
@differentiable(wrt: rhs) public func pow<T>(_ lhs: T, _ rhs: Tensor<T>) -> Tensor<T> where T : TensorFlowFloatingPoint
يُرجع قوة الموتر إلى الحجمي ، ويبث العدد.
إعلان
@differentiable(wrt: lhs) public func pow<T>(_ lhs: Tensor<T>, _ rhs: T) -> Tensor<T> where T : TensorFlowFloatingPoint
إرجاع قوة الموتر إلى العددي ، يبث العدد.
إعلان
@differentiable public func pow<T>(_ x: Tensor<T>, _ n: Int) -> Tensor<T> where T : TensorFlowFloatingPoint
إرجاع عنصر من الحكمة
n
ال الجذرية للموتر.إعلان
@differentiable public func root<T>(_ x: Tensor<T>, _ n: Int) -> Tensor<T> where T : TensorFlowFloatingPoint
عودة الفرق التربيعية بين
x
وy
.إعلان
@differentiable public func squaredDifference<T>(_ x: Tensor<T>, _ y: Tensor<T>) -> Tensor<T> where T : Numeric, T : TensorFlowScalar
قيمة الإرجاع
(x - y) ^ 2
.تُرجع الحد الأقصى للعنصر وهو موتران.
ملحوظة
max
يدعم البث.إعلان
@differentiable public func max<T>(_ lhs: Tensor<T>, _ rhs: Tensor<T>) -> Tensor<T> where T : Comparable, T : Numeric, T : TensorFlowScalar
ترجع الحد الأقصى من حيث العنصر من الحجمي والموتر ، وتبث الحجمي.
إعلان
@differentiable(wrt: rhs) public func max<T>(_ lhs: T, _ rhs: Tensor<T>) -> Tensor<T> where T : Comparable, T : Numeric, T : TensorFlowScalar
ترجع الحد الأقصى من حيث العنصر من الحجمي والموتر ، وتبث الحجمي.
إعلان
@differentiable(wrt: lhs) public func max<T>(_ lhs: Tensor<T>, _ rhs: T) -> Tensor<T> where T : Comparable, T : Numeric, T : TensorFlowScalar
تُرجع الحد الأدنى من عناصر الموتر وهو عنصر.
ملحوظة
min
يدعم البث.إعلان
@differentiable public func min<T>(_ lhs: Tensor<T>, _ rhs: Tensor<T>) -> Tensor<T> where T : Comparable, T : Numeric, T : TensorFlowScalar
إرجاع الحد الأدنى من حيث العنصر من الحجمي والموتر ، يبث الحجمي.
إعلان
@differentiable(wrt: rhs) public func min<T>(_ lhs: T, _ rhs: Tensor<T>) -> Tensor<T> where T : Comparable, T : Numeric, T : TensorFlowScalar
إرجاع الحد الأدنى من حيث العنصر من الحجمي والموتر ، يبث الحجمي.
إعلان
@differentiable(wrt: lhs) public func min<T>(_ lhs: Tensor<T>, _ rhs: T) -> Tensor<T> where T : Comparable, T : Numeric, T : TensorFlowScalar
عودة التشابه جيب التمام بين
x
وy
.إعلان
@differentiable public func cosineSimilarity<Scalar: TensorFlowFloatingPoint>( _ x: Tensor<Scalar>, _ y: Tensor<Scalar> ) -> Tensor<Scalar>
عوائد المسافة جيب التمام بين
x
وy
. وتعرف المسافة جيب التمام كما1 - cosineSimilarity(x, y)
.إعلان
@differentiable public func cosineDistance<Scalar: TensorFlowFloatingPoint>( _ x: Tensor<Scalar>, _ y: Tensor<Scalar> ) -> Tensor<Scalar>
إرجاع التفاف 1-D مع الإدخال المحدد ، والفلتر ، والخطوة ، والحشو.
شرط مسبق
input
يجب أن يكون رتبة3
.شرط مسبق
filter
يجب أن يكون رتبة 3.إعلان
@differentiable(wrt: (input, filter) public func conv1D<Scalar: TensorFlowFloatingPoint>( _ input: Tensor<Scalar>, filter: Tensor<Scalar>, stride: Int = 1, padding: Padding = .valid, dilation: Int = 1 ) -> Tensor<Scalar>
العوامل
input
المدخل.
filter
مرشح الالتواء.
stride
خطوة المرشح المنزلق.
padding
المساحة المتروكة للعملية.
dilation
عامل التمدد.
إرجاع التفاف ثنائي الأبعاد مع الإدخال المحدد ، والفلتر ، والخطوات ، والحشو.
شرط مسبق
input
يجب أن يكون رتبة4
.شرط مسبق
filter
يجب أن يكون رتبة 4.إعلان
@differentiable(wrt: (input, filter) public func conv2D<Scalar: TensorFlowFloatingPoint>( _ input: Tensor<Scalar>, filter: Tensor<Scalar>, strides: (Int, Int, Int, Int) = (1, 1, 1, 1), padding: Padding = .valid, dilations: (Int, Int, Int, Int) = (1, 1, 1, 1) ) -> Tensor<Scalar>
العوامل
input
المدخل.
filter
مرشح الالتواء.
strides
خطوات المرشح المنزلق لكل بُعد من أبعاد الإدخال.
padding
المساحة المتروكة للعملية
dilations
عامل التمدد لكل بعد من أبعاد المدخلات.
إرجاع التفاف ثنائي الأبعاد مع المدخلات والمرشح والخطوات والحشو المحدد.
شرط مسبق
input
يجب أن يكون رتبة4
.شرط مسبق
filter
يجب أن يكون رتبة 4.إعلان
@differentiable(wrt: (input, filter) public func transposedConv2D<Scalar: TensorFlowFloatingPoint>( _ input: Tensor<Scalar>, shape: [Int64], filter: Tensor<Scalar>, strides: (Int, Int, Int, Int) = (1, 1, 1, 1), padding: Padding = .valid, dilations: (Int, Int, Int, Int) = (1, 1, 1, 1) ) -> Tensor<Scalar>
العوامل
input
المدخل.
shape
شكل إخراج عملية deconvolution.
filter
مرشح الالتواء.
strides
خطوات المرشح المنزلق لكل بُعد من أبعاد الإدخال.
padding
المساحة المتروكة للعملية
dilations
عامل التمدد لكل بعد من أبعاد المدخلات.
إرجاع التفاف ثلاثي الأبعاد مع الإدخال المحدد ، والفلتر ، والخطوات ، والحشو والتوسيع.
شرط مسبق
input
يجب أن يكون رتبة5
.شرط مسبق
filter
يجب أن يكون رتبة 5.إعلان
@differentiable(wrt: (input, filter) public func conv3D<Scalar: TensorFlowFloatingPoint>( _ input: Tensor<Scalar>, filter: Tensor<Scalar>, strides: (Int, Int, Int, Int, Int) = (1, 1, 1, 1, 1), padding: Padding = .valid, dilations: (Int, Int, Int, Int, Int) = (1, 1, 1, 1, 1) ) -> Tensor<Scalar>
العوامل
input
المدخل.
filter
مرشح الالتواء.
strides
خطوات المرشح المنزلق لكل بُعد من أبعاد الإدخال.
padding
المساحة المتروكة للعملية.
dilations
عامل التمدد لكل بعد من أبعاد المدخلات.
إرجاع التفاف عميق ثنائي الأبعاد مع الإدخال المحدد ، والفلتر ، والخطوات ، والحشو.
شرط مسبق
input
يجب أن يكون رتبة 4.شرط مسبق
filter
يجب أن يكون رتبة 4.إعلان
@differentiable(wrt: (input, filter) public func depthwiseConv2D<Scalar: TensorFlowFloatingPoint>( _ input: Tensor<Scalar>, filter: Tensor<Scalar>, strides: (Int, Int, Int, Int), padding: Padding ) -> Tensor<Scalar>
العوامل
input
المدخل.
filter
مرشح الالتواء العمق.
strides
خطوات المرشح المنزلق لكل بُعد من أبعاد الإدخال.
padding
المساحة المتروكة للعملية.
تُرجع تجميعًا ثنائي الأبعاد بحد أقصى ، بأحجام المرشح والخطوات والحشو المحدد.
إعلان
@differentiable(wrt: input) public func maxPool2D<Scalar: TensorFlowFloatingPoint>( _ input: Tensor<Scalar>, filterSize: (Int, Int, Int, Int), strides: (Int, Int, Int, Int), padding: Padding ) -> Tensor<Scalar>
العوامل
input
المدخل.
filterSize
أبعاد نواة التجميع.
strides
خطوات المرشح المنزلق لكل بُعد من أبعاد الإدخال.
padding
المساحة المتروكة للعملية.
تُرجع تجميعًا ثلاثي الأبعاد بحد أقصى بأحجام المرشح والخطوات والحشو المحدد.
إعلان
@differentiable(wrt: input) public func maxPool3D<Scalar: TensorFlowFloatingPoint>( _ input: Tensor<Scalar>, filterSize: (Int, Int, Int, Int, Int), strides: (Int, Int, Int, Int, Int), padding: Padding ) -> Tensor<Scalar>
العوامل
input
المدخل.
filterSize
أبعاد نواة التجميع.
strides
خطوات المرشح المنزلق لكل بُعد من أبعاد الإدخال.
padding
المساحة المتروكة للعملية.
إرجاع متوسط تجميع ثنائي الأبعاد ، بأحجام المرشح والخطوات والحشو المحدد.
إعلان
@differentiable(wrt: input) public func avgPool2D<Scalar: TensorFlowFloatingPoint>( _ input: Tensor<Scalar>, filterSize: (Int, Int, Int, Int), strides: (Int, Int, Int, Int), padding: Padding ) -> Tensor<Scalar>
العوامل
input
المدخل.
filterSize
أبعاد نواة التجميع.
strides
خطوات المرشح المنزلق لكل بُعد من أبعاد الإدخال.
padding
المساحة المتروكة للعملية.
إرجاع متوسط تجميع ثلاثي الأبعاد ، بأحجام المرشح والخطوات والحشو المحدد.
إعلان
@differentiable(wrt: input) public func avgPool3D<Scalar: TensorFlowFloatingPoint>( _ input: Tensor<Scalar>, filterSize: (Int, Int, Int, Int, Int), strides: (Int, Int, Int, Int, Int), padding: Padding ) -> Tensor<Scalar>
العوامل
input
المدخل.
filterSize
أبعاد نواة التجميع.
strides
خطوات المرشح المنزلق لكل بُعد من أبعاد الإدخال.
padding
حشوة العملية.
تُرجع تجميعًا كسريًا ثنائي الأبعاد بحد أقصى ، مع نسب تجميع محددة.
ملاحظة:
fractionalMaxPool
لم يكن لديك تنفيذ XLA، وبالتالي قد تكون لها آثار الأداء.إعلان
@differentiable(wrt: input) public func fractionalMaxPool2D<Scalar: TensorFlowFloatingPoint>( _ input: Tensor<Scalar>, poolingRatio: (Double, Double, Double, Double), pseudoRandom: Bool = false, overlapping: Bool = false, deterministic: Bool = false, seed: Int64 = 0, seed2: Int64 = 0 ) -> Tensor<Scalar>
العوامل
input
موتر. 4-D مع شكل
[batch, height, width, channels]
.poolingRatio
قائمة
Doubles
. تجميع نسبة لكل بعد منinput
، وحاليا لا تدعم سوى صف واحد وعمود البعد ويجب أن تكون> = 1.0.pseudoRandom
اختياري
Bool
. الافتراضيfalse
. عند التعيين إلىtrue
، ويولد تسلسل تجميع بطريقة شبه عشوائية، وإلا بطريقة عشوائية.overlapping
اختياري
Bool
. الافتراضيfalse
. عندما مجموعة لtrue
، فإنه يعني عند تجميع، يتم استخدام القيم في حدود خلايا تجميع المجاورة من قبل كل من الخلايا.deterministic
والاختياري
Bool
. عندما مجموعة إلىtrue
، سيتم استخدام منطقة تجميع ثابتة عند بالتكرار عبر عقدة fractionalMaxPool2D في الرسم البياني حساب.seed
اختياري
Int64
. افتراضات إلى0
. إذا تم ضبطه على أنه غير صفري ، فسيتم تصنيف مولد الأرقام العشوائية بواسطة البذرة المحددة.seed2
اختياري
Int64
. افتراضات إلى0
. بذرة ثانية لتجنب اصطدام البذور.إرجاع نسخة من
input
حيث يتم نقل القيم من البعد عمق في كتل المكانية إلى الارتفاع والأبعاد العرض.على سبيل المثال، نظرا مدخلا من شكل
[1, 2, 2, 1]
، data_format = "NHWC" وblock_size = 2:x = [[[[1], [2]], [[3], [4]]]]
عملية إرادة هذا إخراج موتر من شكل
[1, 1, 1, 4]
:[[[[1, 2, 3, 4]]]]
هنا، وإدخال لديه دفعة من 1 ولكل عنصر من عناصر دفعة لديها شكل
[2, 2, 1]
، وإخراج المقابلة سيكون عنصر واحد (أي العرض والارتفاع على حد سواء 1) وسوف يكون لها عمق 4 قنوات (1 * block_size * block_size). شكل العنصر الناتج[1, 1, 4]
.لموتر الإدخال مع عمق أكبر، وهنا الشكل
[1, 2, 2, 3]
، على سبيل المثالx = [[[[1, 2, 3], [4, 5, 6]], [[7, 8, 9], [10, 11, 12]]]]
هذه العملية، لblock_size 2، سيعود موتر التالية من شكل
[1, 1, 1, 12]
[[[[1, 2, 3, 4, 5, 6, 7, 8, 9, 10, 11, 12]]]]
وبالمثل، للمساهمة التالية من شكل
[1 4 4 1]
، وحجم كتلة من 2:x = [[[[1], [2], [5], [6]], [[3], [4], [7], [8]], [[9], [10], [13], [14]], [[11], [12], [15], [16]]]]
سوف المشغل عودة موتر التالية من شكل
[1 2 2 4]
:x = [[[[1, 2, 3, 4], [5, 6, 7, 8]], [[9, 10, 11, 12], [13, 14, 15, 16]]]]
شرط مسبق
input.rank == 4 && b >= 2
.شرط مسبق
يجب أن يكون عدد من الميزات القسمة على مربعb
.إعلان
@differentiable(wrt: input) public func depthToSpace<Scalar>(_ input: Tensor<Scalar>, blockSize b: Int) -> Tensor<Scalar> where Scalar : TensorFlowScalar
إرجاع نسخة من
input
حيث يتم نقل القيم من الطول والعرض الأبعاد إلى البعد العمق.على سبيل المثال، نظرا مدخلا من شكل
[1, 2, 2, 1]
، data_format = "NHWC" وblock_size = 2:x = [[[[1], [2]], [[3], [4]]]]
عملية إرادة هذا إخراج موتر من شكل
[1, 1, 1, 4]
:[[[[1, 2, 3, 4]]]]
هنا، وإدخال لديه دفعة من 1 ولكل عنصر من عناصر دفعة لديها شكل
[2, 2, 1]
، وإخراج المقابلة سيكون عنصر واحد (أي العرض والارتفاع على حد سواء 1) وسوف يكون لها عمق 4 قنوات (1 * block_size * block_size). شكل العنصر الناتج[1, 1, 4]
.لموتر الإدخال مع عمق أكبر، وهنا الشكل
[1, 2, 2, 3]
، على سبيل المثالx = [[[[1, 2, 3], [4, 5, 6]], [[7, 8, 9], [10, 11, 12]]]]
This operation, for block_size of 2, will return the following tensor of shape
[1, 1, 1, 12]
[[[[1, 2, 3, 4, 5, 6, 7, 8, 9, 10, 11, 12]]]]
Similarly, for the following input of shape
[1 4 4 1]
, and a block size of 2:x = [[[[1], [2], [5], [6]], [[3], [4], [7], [8]], [[9], [10], [13], [14]], [[11], [12], [15], [16]]]]
the operator will return the following tensor of shape
[1 2 2 4]
:x = [[[[1, 2, 3, 4], [5, 6, 7, 8]], [[9, 10, 11, 12], [13, 14, 15, 16]]]]
Precondition
input.rank == 4 && b >= 2
.Precondition
The height of the input must be divisible byb
.Precondition
The width of the input must be divisible byb
.إعلان
@differentiable(wrt: input) public func spaceToDepth<Scalar>(_ input: Tensor<Scalar>, blockSize b: Int) -> Tensor<Scalar> where Scalar : TensorFlowScalar
Builds a per-weight optimizer for LARS ( https://arxiv.org/pdf/1708.03888.pdf ).
إعلان
public func makeLARS( learningRate: Float = 0.01, momentum: Float = 0.9, trustCoefficient: Float = 0.001, nesterov: Bool = false, epsilon: Float = 0.0, weightDecay: Float = 0.0 ) -> ParameterGroupOptimizer
Builds a SGD based per-weight optimizer.
إعلان
public func makeSGD( learningRate: Float = 0.01, momentum: Float = 0, weightDecay: Float = 0, nesterov: Bool = false ) -> ParameterGroupOptimizer
Builds a per-weight optimizer for Adam with weight decay.
إعلان
public func makeAdam( learningRate: Float = 0.01, beta1: Float = 0.9, beta2: Float = 0.999, weightDecayRate: Float = 0.01, epsilon: Float = 1e-6 ) -> ParameterGroupOptimizer
Generates a new random seed for TensorFlow.
إعلان
public func randomSeedForTensorFlow(using seed: TensorFlowSeed? = nil) -> TensorFlowSeed
Concatenates two values.
إعلان
@differentiable public func concatenate<T: Mergeable>( _ first: T, _ second: T ) -> T
Adds two values and produces their sum.
إعلان
@differentiable public func sum<T: Mergeable>( _ first: T, _ second: T ) -> T
Averages two values.
إعلان
@differentiable public func average<T: Mergeable>( _ first: T, _ second: T ) -> T
Multiplies two values.
إعلان
@differentiable public func multiply<T: Mergeable>( _ first: T, _ second: T ) -> T
Stack two values.
إعلان
@differentiable public func stack<T: Mergeable>( _ first: T, _ second: T ) -> T
إعلان
public func PrintX10Metrics()
Creates a string summary of a list of training and testing stats.
إعلان
public func formatStatistics(_ stats: (train: HostStatistics, test: HostStatistics)) -> String
إعلان
public func formatStatistics(train trainStats: HostStatistics, test testStats: HostStatistics) -> String
Maps a function over n threads.
إعلان
public func runOnNThreads<R>(_ nThreads: Int, _ body: @escaping (Int) -> R) -> [R]