توابع زیر به صورت جهانی در دسترس هستند.
بازده L1 بین پیش بینی ها و انتظارات را برمی گرداند.
اعلام
@differentiable(wrt: predicted) @differentiable(wrt: (predicted, expected) public func l1Loss<Scalar: TensorFlowFloatingPoint>( predicted: Tensor<Scalar>, expected: Tensor<Scalar> ) -> Tensor<Scalar>
مولفه های
predicted
خروجی های پیش بینی شده از یک شبکه عصبی
expected
مقادیر مورد انتظار ، یعنی اهداف ، که با خروجی صحیح مطابقت دارد.
بازده L2 بین پیش بینی ها و انتظارات را برمی گرداند.
اعلام
@differentiable(wrt: predicted) @differentiable(wrt: (predicted, expected) public func l2Loss<Scalar: TensorFlowFloatingPoint>( predicted: Tensor<Scalar>, expected: Tensor<Scalar> ) -> Tensor<Scalar>
مولفه های
predicted
خروجی های پیش بینی شده از یک شبکه عصبی
expected
مقادیر مورد انتظار ، یعنی اهداف ، که با خروجی صحیح مطابقت دارد.
از دست دادن لولا بین پیش بینی ها و انتظارات را برمی گرداند.
اعلام
@differentiable(wrt: predicted) @differentiable(wrt: (predicted, expected) public func hingeLoss<Scalar: TensorFlowFloatingPoint>( predicted: Tensor<Scalar>, expected: Tensor<Scalar> ) -> Tensor<Scalar>
مولفه های
predicted
خروجی های پیش بینی شده از یک شبکه عصبی
expected
مقادیر مورد انتظار ، یعنی اهداف ، که با خروجی صحیح مطابقت دارد.
از دست دادن لولا در مربع بین پیش بینی ها و انتظارات را برمی گرداند.
اعلام
@differentiable(wrt: predicted) @differentiable(wrt: (predicted, expected) public func squaredHingeLoss<Scalar: TensorFlowFloatingPoint>( predicted: Tensor<Scalar>, expected: Tensor<Scalar> ) -> Tensor<Scalar>
مولفه های
predicted
خروجی های پیش بینی شده از یک شبکه عصبی
expected
مقادیر مورد انتظار ، یعنی اهداف ، که با خروجی صحیح مطابقت دارد.
از دست دادن لولا دسته ای بین پیش بینی ها و انتظارات را برمی گرداند.
اعلام
@differentiable(wrt: predicted) @differentiable(wrt: (predicted, expected) public func categoricalHingeLoss<Scalar: TensorFlowFloatingPoint>( predicted: Tensor<Scalar>, expected: Tensor<Scalar> ) -> Tensor<Scalar>
مولفه های
predicted
خروجی های پیش بینی شده از یک شبکه عصبی
expected
مقادیر مورد انتظار ، یعنی اهداف ، که با خروجی صحیح مطابقت دارد.
لگاریتم کسینوس هذلولی خطا بین پیش بینی ها و انتظارات را برمی گرداند.
اعلام
@differentiable(wrt: predicted) @differentiable(wrt: (predicted, expected) public func logCoshLoss<Scalar: TensorFlowFloatingPoint>( predicted: Tensor<Scalar>, expected: Tensor<Scalar> ) -> Tensor<Scalar>
مولفه های
predicted
خروجی های پیش بینی شده از یک شبکه عصبی
expected
مقادیر مورد انتظار ، یعنی اهداف ، که با خروجی صحیح مطابقت دارد.
ضرر پواسون را بین پیش بینی ها و انتظارات برمی گرداند.
اعلام
@differentiable(wrt: predicted) @differentiable(wrt: (predicted, expected) public func poissonLoss<Scalar: TensorFlowFloatingPoint>( predicted: Tensor<Scalar>, expected: Tensor<Scalar> ) -> Tensor<Scalar>
مولفه های
predicted
خروجی های پیش بینی شده از یک شبکه عصبی
expected
مقادیر مورد انتظار ، یعنی اهداف ، که با خروجی صحیح مطابقت دارد.
واگرایی Kullback-Leibler (واگرایی KL) بین انتظارات و پیش بینی ها را برمی گرداند. با توجه به دو توزیع
p
وq
، KL واگرایی محاسبهp * log(p / q)
.اعلام
@differentiable(wrt: predicted) @differentiable(wrt: (predicted, expected) public func kullbackLeiblerDivergence<Scalar: TensorFlowFloatingPoint>( predicted: Tensor<Scalar>, expected: Tensor<Scalar> ) -> Tensor<Scalar>
مولفه های
predicted
خروجی های پیش بینی شده از یک شبکه عصبی
expected
مقادیر مورد انتظار ، یعنی اهداف ، که با خروجی صحیح مطابقت دارد.
آنتروپی متقاطع softmax (آنتروپی متقاطع متقابل) را بین logits و label ها برمی گرداند.
اعلام
@differentiable(wrt: logits) public func softmaxCrossEntropy<Scalar: TensorFlowFloatingPoint>( logits: Tensor<Scalar>, probabilities: Tensor<Scalar> ) -> Tensor<Scalar>
مولفه های
logits
خروجی های رمزگذاری شده از یک شبکه عصبی
labels
شاخص های (صفر نمایه) خروجی های صحیح.
آنتروپی متقاطع سیگموئید (آنتروپی متقاطع دوتایی) بین logits و label ها را برمی گرداند.
اعلام
@differentiable(wrt: logits) @differentiable(wrt: (logits, labels) public func sigmoidCrossEntropy<Scalar: TensorFlowFloatingPoint>( logits: Tensor<Scalar>, labels: Tensor<Scalar> ) -> Tensor<Scalar>
مولفه های
logits
خروجی بدون مقیاس یک شبکه عصبی
labels
مقادیر صحیح که با خروجی صحیح مطابقت دارد.
یک تانسور با شکل و مقیاس بندی مشابه تانسور مشخص شده را برمی گرداند.
اعلام
@differentiable public func identity<Scalar>(_ x: Tensor<Scalar>) -> Tensor<Scalar> where Scalar : TensorFlowScalar
بسته شدن داده شده را در زمینه ای توصیف می کند که همه چیز با زمینه فعلی یکسان است به جز مرحله یادگیری داده شده.
اعلام
public func withContext<R>(_ context: Context, _ body: () throws -> R) rethrows -> R
مولفه های
context
زمینه ای که قبل از فراخوانی بسته شدن و تنظیم مجدد پس از بازگشت بسته ، تنظیم می شود.
body
تعطیلی دلخراش. اگر از بسته شدن دارای یک مقدار بازگشتی، که ارزش نیز به عنوان مقدار بازگشتی از استفاده
withContext(_:_:)
تابع.مقدار بازگشتی
مقدار بازگشتی، در صورت وجود، از
body
بسته شدن.بسته شدن داده شده را در زمینه ای توصیف می کند که همه چیز با زمینه فعلی یکسان است به جز مرحله یادگیری داده شده.
اعلام
public func withLearningPhase<R>( _ learningPhase: LearningPhase, _ body: () throws -> R ) rethrows -> R
مولفه های
learningPhase
یک مرحله یادگیری است که قبل از فراخوانی بسته و پس از بازگشت بسته مجدداً تنظیم می شود.
body
تعطیلی دلخراش. اگر از بسته شدن دارای یک مقدار بازگشتی، که ارزش نیز به عنوان مقدار بازگشتی از استفاده
withLearningPhase(_:_:)
تابع.مقدار بازگشتی
مقدار بازگشتی، در صورت وجود، از
body
بسته شدن.بسته شدن داده شده را در زمینه ای توصیف می کند که همه چیز شبیه به زمینه فعلی است به جز دانه تصادفی داده شده.
اعلام
public func withRandomSeedForTensorFlow<R>( _ randomSeed: TensorFlowSeed, _ body: () throws -> R ) rethrows -> R
مولفه های
randomSeed
یک دانه تصادفی که قبل از بسته شدن تماس گرفته می شود و پس از بازگشت بسته مجدداً تنظیم می شود.
body
تعطیلی دلخراش. اگر از بسته شدن دارای یک مقدار بازگشتی، که ارزش نیز به عنوان مقدار بازگشتی از استفاده
withRandomSeedForTensorFlow(_:_:)
تابع.مقدار بازگشتی
مقدار بازگشتی، در صورت وجود، از
body
بسته شدن.بسته شدن داده شده را در زمینه ای که همه چیز شبیه به زمینه فعلی است به غیر از مولد شماره تصادفی داده شده فرا می خواند.
اعلام
public func withRandomNumberGeneratorForTensorFlow<G: RandomNumberGenerator, R>( _ randomNumberGenerator: inout G, _ body: () throws -> R ) rethrows -> R
مولفه های
randomNumberGenerator
یک مولد اعداد تصادفی که قبل از فراخوانی بسته شدن و تنظیم مجدد پس از بازگشت بسته تنظیم می شود.
body
تعطیلی دلخراش. اگر از بسته شدن دارای یک مقدار بازگشتی، که ارزش نیز به عنوان مقدار بازگشتی از استفاده
withRandomNumberGeneratorForTensorFlow(_:_:)
تابع.مقدار بازگشتی
مقدار بازگشتی، در صورت وجود، از
body
بسته شدن.اعلام
public func zip<T: TensorGroup, U: TensorGroup>( _ dataset1: Dataset<T>, _ dataset2: Dataset<U> ) -> Dataset<Zip2TensorGroup<T, U>>
LazyTensorBarrier اطمینان حاصل می کند که همه تنسورهای زنده (در صورت ارائه دستگاه) برنامه ریزی شده و در حال اجرا هستند. اگر انتظار روی true تنظیم شده باشد ، این تماس تا کامل شدن محاسبه مسدود می شود.
اعلام
public func valueWithGradient<T, R>( at x: T, in f: @differentiable (T) -> Tensor<R> ) -> (value: Tensor<R>, gradient: T.TangentVector) where T: Differentiable, R: TensorFlowFloatingPoint
اعلام
public func valueWithGradient<T, U, R>( at x: T, _ y: U, in f: @differentiable (T, U) -> Tensor<R> ) -> (value: Tensor<R>, gradient: (T.TangentVector, U.TangentVector)) where T: Differentiable, U: Differentiable, R: TensorFlowFloatingPoint
اعلام
public func valueWithGradient<T, U, V, R>( at x: T, _ y: U, _ z: V, in f: @differentiable (T, U, V) -> Tensor<R> ) -> (value: Tensor<R>, gradient: (T.TangentVector, U.TangentVector, V.TangentVector)) where T: Differentiable, U: Differentiable, V: Differentiable, R: TensorFlowFloatingPoint
اعلام
public func valueWithGradient<T, R>( of f: @escaping @differentiable (T) -> Tensor<R> ) -> (T) -> (value: Tensor<R>, gradient: T.TangentVector) where T: Differentiable, R: TensorFlowFloatingPoint
اعلام
public func valueWithGradient<T, U, R>( of f: @escaping @differentiable (T, U) -> Tensor<R> ) -> (T, U) -> (value: Tensor<R>, gradient: (T.TangentVector, U.TangentVector)) where T: Differentiable, U: Differentiable, R: TensorFlowFloatingPoint
اعلام
public func valueWithGradient<T, U, V, R>( of f: @escaping @differentiable (T, U, V) -> Tensor<R> ) -> (T, U, V) -> ( value: Tensor<R>, gradient: (T.TangentVector, U.TangentVector, V.TangentVector) ) where T: Differentiable, U: Differentiable, V: Differentiable, R: TensorFlowFloatingPoint
اعلام
public func gradient<T, R>( at x: T, in f: @differentiable (T) -> Tensor<R> ) -> T.TangentVector where T: Differentiable, R: TensorFlowFloatingPoint
اعلام
public func gradient<T, U, R>( at x: T, _ y: U, in f: @differentiable (T, U) -> Tensor<R> ) -> (T.TangentVector, U.TangentVector) where T: Differentiable, U: Differentiable, R: TensorFlowFloatingPoint
اعلام
public func gradient<T, U, V, R>( at x: T, _ y: U, _ z: V, in f: @differentiable (T, U, V) -> Tensor<R> ) -> (T.TangentVector, U.TangentVector, V.TangentVector) where T: Differentiable, U: Differentiable, V: Differentiable, R: TensorFlowFloatingPoint
اعلام
public func gradient<T, R>( of f: @escaping @differentiable (T) -> Tensor<R> ) -> (T) -> T.TangentVector where T: Differentiable, R: TensorFlowFloatingPoint
اعلام
public func gradient<T, U, R>( of f: @escaping @differentiable (T, U) -> Tensor<R> ) -> (T, U) -> (T.TangentVector, U.TangentVector) where T: Differentiable, U: Differentiable, R: TensorFlowFloatingPoint
اعلام
public func gradient<T, U, V, R>( of f: @escaping @differentiable (T, U, V) -> Tensor<R> ) -> (T, U, V) -> (T.TangentVector, U.TangentVector, V.TangentVector) where T: Differentiable, U: Differentiable, V: Differentiable, R: TensorFlowFloatingPoint
یک تابع را در عقب کشیدن مجدد محاسبه کنید ، که در تمایز خودکار سنتی به عنوان "checkpointing" شناخته می شود.
اعلام
public func withRecomputationInPullbacks<T, U>( _ body: @escaping @differentiable (T) -> U ) -> @differentiable (T) -> U where T : Differentiable, U : Differentiable
یک تابع متغیر از یک تابع محصولات بردار-ژاکوبی ایجاد کنید.
اعلام
public func differentiableFunction<T : Differentiable, R : Differentiable>( from vjp: @escaping (T) -> (value: R, pullback: (R.TangentVector) -> T.TangentVector) ) -> @differentiable (T) -> R
یک تابع متغیر از یک تابع محصولات بردار-ژاکوبی ایجاد کنید.
اعلام
public func differentiableFunction<T, U, R>( from vjp: @escaping (T, U) -> (value: R, pullback: (R.TangentVector) -> (T.TangentVector, U.TangentVector)) ) -> @differentiable (T, U) -> R
بازگشت
x
مانند یک تابع هویت. هنگامی که در یک زمینه که در آن استفاده می شودx
است که متفاوت با توجه به این، این تابع هر مشتق در خواهد تولید نمیx
.اعلام
@_semantics("autodiff.nonvarying") public func withoutDerivative<T>(at x: T) -> T
اعمال بسته شدن داده می شود
body
بهx
. هنگامی که در یک زمینه که در آن استفاده می شودx
است که متفاوت با توجه به این، این تابع هر مشتق در خواهد تولید نمیx
.اعلام
@_semantics("autodiff.nonvarying") public func withoutDerivative<T, R>(at x: T, in body: (T) -> R) -> R
بسته شدن را اجرا می کند و باعث می شود عملیات TensorFlow بر روی دستگاه خاصی اجرا شود.
اعلام
public func withDevice<R>( _ kind: DeviceKind, _ index: UInt = 0, perform body: () throws -> R ) rethrows -> R
مولفه های
kind
نوعی دستگاه برای اجرای عملیات TensorFlow.
index
دستگاهی که گزینه ها را اجرا می کند.
body
بسته ای که عملیات TensorFlow قرار است بر روی نوع دستگاه مشخصی اجرا شود.
بسته شدن را اجرا می کند و باعث می شود عملیات TensorFlow روی دستگاهی با نام خاص اجرا شود.
چند نمونه از نام دستگاه ها:
- “/device: CPU: 0”: CPU دستگاه شما.
- “/GPU: 0”: نشانه گذاری کوتاه برای اولین GPU دستگاه شما که برای TensorFlow قابل مشاهده است
- "/job: localhost/replica: 0/task: 0/device: GPU: 1": نام کاملاً واجد شرایط GPU دوم دستگاه شما که برای TensorFlow قابل مشاهده است.
اعلام
public func withDevice<R>(named name: String, perform body: () throws -> R) rethrows -> R
مولفه های
name
نام دستگاه.
body
بسته ای که عملیات TensorFlow قرار است روی نوع خاصی از دستگاه اجرا شود.
بسته شدن را اجرا می کند و به TensorFlow اجازه می دهد تا عملیات TensorFlow را روی هر دستگاهی قرار دهد. این باید رفتار مکان پیش فرض را بازیابی کند.
اعلام
public func withDefaultDevice<R>(perform body: () throws -> R) rethrows -> R
مولفه های
body
بسته ای که عملیات TensorFlow قرار است بر روی نوع دستگاه مشخصی اجرا شود.
اندازه تصاویر را با استفاده از روش مشخص شده تغییر دهید.
پیش شرط
تصاویر باید رتبه دارند3
یا4
.پیش شرط
اندازه باید مثبت باشد.اعلام
@differentiable(wrt: images) public func resize( images: Tensor<Float>, size: (newHeight: Int, newWidth: Int), method: ResizeMethod = .bilinear, antialias: Bool = false ) -> Tensor<Float>
اندازه تصاویر را با استفاده از درون یابی ناحیه تغییر دهید.
پیش شرط
تصاویر باید رتبه دارند3
یا4
.پیش شرط
اندازه باید مثبت باشد.اعلام
public func resizeArea<Scalar: TensorFlowNumeric>( images: Tensor<Scalar>, size: (newHeight: Int, newWidth: Int), alignCorners: Bool = false ) -> Tensor<Float>
اتساع دو بعدی با ورودی ، فیلتر ، گام ها و پد مشخص شده را برمی گرداند.
پیش شرط
input
باید رتبه دارند4
.پیش شرط
filter
باید رتبه دارند3
.اعلام
@differentiable(wrt: (input, filter) public func dilation2D<Scalar: TensorFlowFloatingPoint>( _ input: Tensor<Scalar>, filter: Tensor<Scalar>, strides: (Int, Int, Int, Int) = (1, 1, 1, 1), rates: (Int, Int, Int, Int) = (1, 1, 1, 1), padding: Padding = .valid ) -> Tensor<Scalar>
مولفه های
input
ورودی.
filter
فیلتر اتساع.
strides
مراحل فیلتر کشویی برای هر بعد ورودی.
padding
بالشتک برای عملیات
rates
نرخ اتساع برای هر بعد ورودی.
فرسایش دو بعدی را با ورودی ، فیلتر ، گام ها و پد مشخص شده برمی گرداند.
پیش شرط
input
باید رتبه دارند4
.پیش شرط
filter
باید رتبه 3 دارند.اعلام
@differentiable(wrt: (input, filter) public func erosion2D<Scalar: TensorFlowFloatingPoint>( _ input: Tensor<Scalar>, filter: Tensor<Scalar>, strides: (Int, Int, Int, Int) = (1, 1, 1, 1), rates: (Int, Int, Int, Int) = (1, 1, 1, 1), padding: Padding = .valid ) -> Tensor<Scalar>
مولفه های
input
ورودی.
filter
فیلتر فرسایش
strides
مراحل فیلتر کشویی برای هر بعد ورودی.
padding
بالشتک برای عملیات
rates
نرخ اتساع برای هر بعد ورودی.
تابعی را برمی گرداند که با مقدار دهی تمام مقادیر آن به صفر ، تانسور ایجاد می کند.
اعلام
public func zeros<Scalar>() -> ParameterInitializer<Scalar> where Scalar : TensorFlowFloatingPoint
تابعی را برمی گرداند که با مقدار دهی اولیه تمام مقادیر آن به مقدار ارائه شده ، تانسور ایجاد می کند.
اعلام
public func constantInitializer<Scalar: TensorFlowFloatingPoint>( value: Scalar ) -> ParameterInitializer<Scalar>
تابعی را باز می گرداند که با مقدار دهی اولیه به مقدار ارائه شده ، تانسور ایجاد می کند. توجه داشته باشید که پخش از ارزش ارائه شده است پشتیبانی نمی شود.
اعلام
public func constantInitializer<Scalar: TensorFlowFloatingPoint>( value: Tensor<Scalar> ) -> ParameterInitializer<Scalar>
بازده یک تابع است که ایجاد یک تانسور با انجام Glorot (خاویر) مقدار دهی اولیه لباس به آن برای شکل مشخص شده، به طور تصادفی نمونه برداری مقادیر اسکالر از یک توزیع یکنواخت بین
-limit
وlimit
، تولید شده توسط ژنراتور به طور پیش فرض عدد تصادفی، که در آن حد استsqrt(6 / (fanIn + fanOut))
، وfanIn
/fanOut
نمایندگی تعدادی از ورودی و خروجی ویژگی های زمینه پذیرای ضرب، در صورت وجود.اعلام
public func glorotUniform<Scalar: TensorFlowFloatingPoint>( seed: TensorFlowSeed = Context.local.randomSeed ) -> ParameterInitializer<Scalar>
بازده یک تابع است که ایجاد یک تانسور با انجام Glorot (خاویر) مقدار دهی اولیه طبیعی برای شکل مشخص شده، به طور تصادفی نمونه برداری مقادیر اسکالر از یک توزیع نرمال کوتاه بر محور
0
با انحراف استانداردsqrt(2 / (fanIn + fanOut))
، که در آنfanIn
/fanOut
در صورت وجود ، تعداد ویژگیهای ورودی و خروجی ضرب در اندازه میدان پذیرش را نشان می دهد.اعلام
public func glorotNormal<Scalar: TensorFlowFloatingPoint>( seed: TensorFlowSeed = Context.local.randomSeed ) -> ParameterInitializer<Scalar>
بازده یک تابع است که ایجاد یک تانسور با انجام او (Kaiming) مقدار دهی اولیه لباس به آن برای شکل مشخص شده، به طور تصادفی نمونه برداری مقادیر اسکالر از یک توزیع یکنواخت بین
-limit
وlimit
، تولید شده توسط ژنراتور به طور پیش فرض عدد تصادفی، که در آن حد استsqrt(6 / fanIn)
، وfanIn
نشان دهنده تعدادی از ویژگی های ورودی ضرب زمینه پذیرای، در صورت وجود.اعلام
public func heUniform<Scalar: TensorFlowFloatingPoint>( seed: TensorFlowSeed = Context.local.randomSeed ) -> ParameterInitializer<Scalar>
بازده یک تابع است که ایجاد یک تانسور با انجام او (Kaiming) مقدار دهی اولیه طبیعی برای شکل مشخص شده، به طور تصادفی نمونه برداری مقادیر اسکالر از یک توزیع نرمال کوتاه بر محور
0
با انحراف استانداردsqrt(2 / fanIn)
، که در آنfanIn
نشان دهنده تعدادی از ویژگی های ورودی در صورت وجود ضرب در اندازه میدان پذیرش.اعلام
public func heNormal<Scalar: TensorFlowFloatingPoint>( seed: TensorFlowSeed = Context.local.randomSeed ) -> ParameterInitializer<Scalar>
بازده یک تابع است که ایجاد یک تانسور با انجام LeCun دهی اولیه لباس به آن برای شکل مشخص شده، به طور تصادفی نمونه برداری مقادیر اسکالر از یک توزیع یکنواخت بین
-limit
وlimit
، تولید شده توسط ژنراتور به طور پیش فرض عدد تصادفی، که در آن حد استsqrt(3 / fanIn)
، وfanIn
نشان دهنده تعدادی از ویژگی های ورودی ضرب زمینه پذیرای، در صورت وجود.اعلام
public func leCunUniform<Scalar: TensorFlowFloatingPoint>( seed: TensorFlowSeed = Context.local.randomSeed ) -> ParameterInitializer<Scalar>
بازده یک تابع است که ایجاد یک تانسور با انجام LeCun دهی اولیه طبیعی برای شکل مشخص شده، به طور تصادفی نمونه برداری مقادیر اسکالر از یک توزیع نرمال کوتاه بر محور
0
با انحراف استانداردsqrt(1 / fanIn)
، که در آنfanIn
نشان دهنده تعداد ورودی ویژگی های ضرب اندازه میدان پذیرش ، در صورت وجوداعلام
public func leCunNormal<Scalar: TensorFlowFloatingPoint>( seed: TensorFlowSeed = Context.local.randomSeed ) -> ParameterInitializer<Scalar>
تابعی را برمی گرداند که با مقدار دهی اولیه تمام مقادیر آن به صورت تصادفی از توزیع نرمال کوتاه شده ، یک تانسور ایجاد می کند. ارزش تولید به دنبال یک توزیع نرمال با میانگین
mean
و انحراف استانداردstandardDeviation
، جز این که مقادیر که قدر بیش از دو انحراف استاندارد از میانگین کاهش یافته و resampled.اعلام
public func truncatedNormalInitializer<Scalar: TensorFlowFloatingPoint>( mean: Tensor<Scalar> = Tensor<Scalar>(0), standardDeviation: Tensor<Scalar> = Tensor<Scalar>(1), seed: TensorFlowSeed = Context.local.randomSeed ) -> ParameterInitializer<Scalar>
مولفه های
mean
میانگین توزیع نرمال
standardDeviation
انحراف استاندارد توزیع نرمال
مقدار بازگشتی
یک تابع اولیه ساز پارامتر معمولی کوتاه شده.
اعلام
public func == (lhs: TFETensorHandle, rhs: TFETensorHandle) -> Bool
ماتریس هویت یا دسته ای از ماتریس ها را برمی گرداند.
اعلام
مولفه های
rowCount
تعداد سطرها در هر ماتریس دسته ای.
columnCount
تعداد ستون ها در هر ماتریس دسته ای.
batchShape
ابعاد دسته ای اصلی تانسور برگشتی
ردپای یک ماتریس دسته ای اختیاری را محاسبه می کند. ردیابی مجموع مورب اصلی هر ماتریس داخلی است.
ورودی یک تانسور با شکل است
[..., M, N]
. خروجی یک تانسور با شکل است[...]
.پیش شرط
matrix
باید یک تانسور با شکل باشد[..., M, N]
.اعلام
@differentiable(wrt: matrix) public func trace<T>(_ matrix: Tensor<T>) -> Tensor<T> where T : Numeric, T : TensorFlowScalar
مولفه های
matrix
یک تانسور شکل
[..., M, N]
.تجزیه Cholesky یک یا چند ماتریس مربعی را برمی گرداند.
ورودی یک تانسور شکل است
[..., M, M]
که 2 ابعاد ترین داخلی را تشکیل می ماتریس مربع.ورودی باید متقارن و مثبت باشد. فقط قسمت پایین مثلثی ورودی برای این عملیات استفاده می شود. قسمت بالا مثلثی خوانده نمی شود.
خروجی یک تانسور از همان شکل به عنوان ورودی شامل تجزیه Cholesky برای همه submatrices ورودی است
[..., :, :]
.اعلام
@differentiable public func cholesky<T>(_ x: Tensor<T>) -> Tensor<T> where T : TensorFlowFloatingPoint
مولفه های
input
یک تانسور شکل
[..., M, M]
.بازده راه حل
x
به سیستم معادلات خطی ارائه شده توسطAx = b
.پیش شرط
matrix
باید یک تانسور با شکل باشد[..., M, M]
.پیش شرط
rhs
باید یک تانسور با شکل باشد[..., M, K]
.اعلام
@differentiable public func triangularSolve<T: TensorFlowFloatingPoint>( matrix: Tensor<T>, rhs: Tensor<T>, lower: Bool = true, adjoint: Bool = false ) -> Tensor<T>
مولفه های
matrix
ورودی مثلثی ضریب ماتریس، به نمایندگی از در
A
Ax = b
.rhs
ارزش سمت راست، به نمایندگی از
b
درAx = b
.lower
آیا
matrix
مثلثی پایین تر (استtrue
) یا مثلثی بالا (false
). مقدار پیش فرضtrue
.adjoint
اگر
true
، حل با الحاقی ازmatrix
به جایmatrix
. مقدار پیش فرضfalse
.مقدار بازگشتی
راه حل
x
به سیستم معادلات خطی ارائه شده توسطAx = b
.x
است همان شکلb
.محاسبه از دست دادن L1 بین
expected
وpredicted
.loss = reduction(abs(expected - predicted))
اعلام
مولفه های
predicted
خروجی های پیش بینی شده از یک شبکه عصبی
expected
مقادیر مورد انتظار ، یعنی اهداف ، که با خروجی صحیح مطابقت دارد.
reduction
کاهش برای اعمال بر ارزشهای ضرر محاسبه شده از نظر عنصر.
محاسبه از دست دادن L2 دو
expected
وpredicted
.loss = reduction(square(expected - predicted))
اعلام
مولفه های
predicted
خروجی های پیش بینی شده از یک شبکه عصبی
expected
مقادیر مورد انتظار ، یعنی اهداف ، که با خروجی صحیح مطابقت دارد.
reduction
کاهش برای اعمال بر ارزشهای ضرر محاسبه شده از نظر عنصر.
میانگین تفاوت مطلق بین برچسب ها و پیش بینی ها را محاسبه می کند.
loss = mean(abs(expected - predicted))
اعلام
@differentiable(wrt: predicted) @differentiable(wrt: (predicted, expected) public func meanAbsoluteError<Scalar: TensorFlowFloatingPoint>( predicted: Tensor<Scalar>, expected: Tensor<Scalar> ) -> Tensor<Scalar>
مولفه های
predicted
خروجی های پیش بینی شده از یک شبکه عصبی
expected
مقادیر مورد انتظار ، یعنی اهداف ، که با خروجی صحیح مطابقت دارد.
میانگین مربعات خطا بین برچسب ها و پیش بینی ها را محاسبه می کند.
loss = mean(square(expected - predicted))
اعلام
@differentiable(wrt: predicted) @differentiable(wrt: (predicted, expected) public func meanSquaredError<Scalar: TensorFlowFloatingPoint>( predicted: Tensor<Scalar>, expected: Tensor<Scalar> ) -> Tensor<Scalar>
مولفه های
predicted
خروجی های پیش بینی شده از یک شبکه عصبی
expected
مقادیر مورد انتظار ، یعنی اهداف ، که با خروجی صحیح مطابقت دارد.
محاسبه میانگین خطا لگاریتمی مربع بین
predicted
وexpected
loss = square(log(expected) - log(predicted))
توجه داشته باشید
نوشته تانسور منفی خواهد شد در کلمپ
0
برای جلوگیری از رفتار لگاریتمی تعریف نشده، به عنوانlog(_:)
برای اعداد حقیقی منفی تعریف نشده است.اعلام
@differentiable(wrt: predicted) @differentiable(wrt: (predicted, expected) public func meanSquaredLogarithmicError<Scalar: TensorFlowFloatingPoint>( predicted: Tensor<Scalar>, expected: Tensor<Scalar> ) -> Tensor<Scalar>
مولفه های
predicted
خروجی های پیش بینی شده از یک شبکه عصبی
expected
مقادیر مورد انتظار ، یعنی اهداف ، که با خروجی صحیح مطابقت دارد.
محاسبه درصد خطا مطلق متوسط بین
predicted
وexpected
.loss = 100 * mean(abs((expected - predicted) / abs(expected)))
اعلام
@differentiable(wrt: predicted) @differentiable(wrt: (predicted, expected) public func meanAbsolutePercentageError<Scalar: TensorFlowFloatingPoint>( predicted: Tensor<Scalar>, expected: Tensor<Scalar> ) -> Tensor<Scalar>
مولفه های
predicted
خروجی های پیش بینی شده از یک شبکه عصبی
expected
مقادیر مورد انتظار ، یعنی اهداف ، که با خروجی صحیح مطابقت دارد.
محاسبه از دست دادن لولا بین
predicted
وexpected
.loss = reduction(max(0, 1 - predicted * expected))
expected
انتظار می رود ارزش آن را -1 یا 1 باشد.اعلام
مولفه های
predicted
خروجی های پیش بینی شده از یک شبکه عصبی
expected
مقادیر مورد انتظار ، یعنی اهداف ، که با خروجی صحیح مطابقت دارد.
reduction
کاهش برای اعمال بر ارزشهای ضرر محاسبه شده از نظر عنصر.
محاسبه از دست دادن لولا مربع بین
predicted
وexpected
.loss = reduction(square(max(0, 1 - predicted * expected)))
expected
انتظار می رود ارزش آن را -1 یا 1 باشد.اعلام
مولفه های
predicted
خروجی های پیش بینی شده از یک شبکه عصبی
expected
مقادیر مورد انتظار ، یعنی اهداف ، که با خروجی صحیح مطابقت دارد.
reduction
کاهش برای اعمال بر ارزشهای ضرر محاسبه شده از نظر عنصر.
محاسبه از دست دادن لولا طبقه بین
predicted
وexpected
.loss = maximum(negative - positive + 1, 0)
که در آنnegative = max((1 - expected) * predicted)
وpositive = sum(predicted * expected)
اعلام
مولفه های
predicted
خروجی های پیش بینی شده از یک شبکه عصبی
expected
مقادیر مورد انتظار ، یعنی اهداف ، که با خروجی صحیح مطابقت دارد.
reduction
کاهش برای اعمال بر ارزشهای ضرر محاسبه شده از نظر عنصر.
لگاریتم کسینوس هذلولی خطای پیش بینی را محاسبه می کند.
logcosh = log((exp(x) + exp(-x))/2)
، که در آن x است خطاpredicted - expected
اعلام
مولفه های
predicted
خروجی های پیش بینی شده از یک شبکه عصبی
expected
مقادیر مورد انتظار ، یعنی اهداف ، که با خروجی صحیح مطابقت دارد.
reduction
کاهش برای اعمال بر ارزشهای ضرر محاسبه شده از نظر عنصر.
محاسبه از دست دادن پواسون بین پیش بینی و انتظار می رود از دست دادن پواسون میانگین عناصر است
Tensor
predicted - expected * log(predicted)
.اعلام
مولفه های
predicted
خروجی های پیش بینی شده از یک شبکه عصبی
expected
مقادیر مورد انتظار ، یعنی اهداف ، که با خروجی صحیح مطابقت دارد.
reduction
کاهش برای اعمال بر ارزشهای ضرر محاسبه شده از نظر عنصر.
از دست دادن واگرایی محاسبه کولبک-Leibler بین
expected
وpredicted
.loss = reduction(expected * log(expected / predicted))
اعلام
مولفه های
predicted
خروجی های پیش بینی شده از یک شبکه عصبی
expected
مقادیر مورد انتظار ، یعنی اهداف ، که با خروجی صحیح مطابقت دارد.
reduction
کاهش برای اعمال بر ارزشهای ضرر محاسبه شده از نظر عنصر.
آنتروپی متقاطع softmax کمی (آنتروپی متقاطع متقاطع) بین logits و label ها را محاسبه می کند. وقتی دو یا چند کلاس برچسب وجود دارد ، از این تابع از دست دادن crossentropy استفاده کنید. ما انتظار داریم که برچسب ها به صورت اعداد صحیح ارائه شوند. باید وجود داشته باشد
# classes
مقادیر ممیز شناور در هر ویژگی برایlogits
و یک شناور ارزش نقطه در هر ویژگی برایexpected
.اعلام
مولفه های
logits
خروجی های رمزگذاری شده از یک شبکه عصبی
labels
شاخص (صفر نمایه) خروجی های صحیح.
reduction
کاهش برای اعمال بر ارزشهای ضرر محاسبه شده از نظر عنصر.
آنتروپی متقاطع softmax کمی (آنتروپی متقاطع متقاطع) بین logits و label ها را محاسبه می کند. وقتی دو یا چند کلاس برچسب وجود دارد ، از این تابع از دست دادن crossentropy استفاده کنید. ما انتظار داریم که برچسب به فراهم شود ارائه شده در
one_hot
نمایندگی. باید وجود داشته باشد# classes
مقادیر ممیز شناور در هر ویژگی.اعلام
مولفه های
logits
احتمالات ثبت نشده بدون مقیاس از یک شبکه عصبی
probabilities
مقادیر احتمالی که با خروجی صحیح مطابقت دارد. هر سطر باید یک توزیع احتمال معتبر باشد.
reduction
کاهش برای اعمال بر ارزشهای ضرر محاسبه شده از نظر عنصر.
آنتروپی متقاطع سیگموئید (آنتروپی متقاطع دوتایی) بین logits و label ها را محاسبه می کند. هنگامی که فقط دو کلاس برچسب وجود دارد (با فرض 0 و 1) از این ضرر آنتروپی متقابل استفاده کنید. برای هر مثال ، باید یک مقدار واحد شناور در هر پیش بینی وجود داشته باشد.
اعلام
مولفه های
logits
خروجی بدون مقیاس یک شبکه عصبی
labels
مقادیر صحیح که با خروجی صحیح مطابقت دارد.
reduction
کاهش برای اعمال بر ارزشهای ضرر محاسبه شده از نظر عنصر.
محاسبه از دست دادن هوبر بین
predicted
وexpected
.برای هر مقدار
x
درerror = expected - predicted
:-
0.5 * x^2
اگر|x| <= δ
. 0.5 * δ^2 + δ * (|x| - δ)
در غیر این صورت.منبع: مقاله ویکیپدیا .
اعلام
مولفه های
predicted
خروجی های پیش بینی شده از یک شبکه عصبی
expected
مقادیر مورد انتظار ، یعنی اهداف ، که با خروجی صحیح مطابقت دارد.
delta
یک مقیاس مقیاس شناور نشان دهنده نقطه ای است که در آن تابع تلفات Huber از درجه دوم به خطی تغییر می کند.
reduction
کاهش برای اعمال بر ارزشهای ضرر محاسبه شده از نظر عنصر.
-
مقدار مطلق عنصر تانسور مشخص شده را بر می گرداند.
اعلام
@differentiable public func abs<T>(_ x: Tensor<T>) -> Tensor<T> where T : SignedNumeric, T : TensorFlowScalar
لگاریتم طبیعی تنسور مشخص شده را از نظر عنصر بر می گرداند.
اعلام
@differentiable public func log<T>(_ x: Tensor<T>) -> Tensor<T> where T : TensorFlowFloatingPoint
لگاریتم پایه دو از عنصر تانسور مشخص را برمی گرداند.
اعلام
@differentiable public func log2<T>(_ x: Tensor<T>) -> Tensor<T> where T : TensorFlowFloatingPoint
لگاریتم پایه ده از عنصر تانسور مشخص را بر می گرداند.
اعلام
@differentiable public func log10<T>(_ x: Tensor<T>) -> Tensor<T> where T : TensorFlowFloatingPoint
لگاریتم از
1 + x
عنصر و حکیم است.اعلام
@differentiable public func log1p<T>(_ x: Tensor<T>) -> Tensor<T> where T : TensorFlowFloatingPoint
بازده
log(1 - exp(x))
با استفاده از روش عددی پایدار.توجه داشته باشید
: این رویکرد در معادله 7 از نشان داده شده است https://cran.r-project.org/web/packages/Rmpfr/vignettes/log1mexp-note.pdf .اعلام
@differentiable public func log1mexp<T>(_ x: Tensor<T>) -> Tensor<T> where T : TensorFlowFloatingPoint
سینوس تنسور مشخص شده را از نظر عنصر برمی گرداند.
اعلام
@differentiable public func sin<T>(_ x: Tensor<T>) -> Tensor<T> where T : TensorFlowFloatingPoint
کسینوس تنسور مشخص شده را از نظر عنصر برمی گرداند.
اعلام
@differentiable public func cos<T>(_ x: Tensor<T>) -> Tensor<T> where T : TensorFlowFloatingPoint
مماس عنصر تانسور مشخص شده را برمی گرداند.
اعلام
@differentiable public func tan<T>(_ x: Tensor<T>) -> Tensor<T> where T : TensorFlowFloatingPoint
سینوس هایپربولیک تنسور مشخص شده را از نظر عنصر برمی گرداند.
اعلام
@differentiable public func sinh<T>(_ x: Tensor<T>) -> Tensor<T> where T : TensorFlowFloatingPoint
کسینوس هایپربولیک تنسور مشخص شده را از نظر عنصر برمی گرداند.
اعلام
@differentiable public func cosh<T>(_ x: Tensor<T>) -> Tensor<T> where T : TensorFlowFloatingPoint
بر حسب عنصر مماس هذلولی تانسور مشخص شده را برمی گرداند.
اعلام
@differentiable public func tanh<T>(_ x: Tensor<T>) -> Tensor<T> where T : TensorFlowFloatingPoint
کسینوس معکوس عنصر تانسور مشخص شده را برمی گرداند.
اعلام
@differentiable public func acos<T>(_ x: Tensor<T>) -> Tensor<T> where T : TensorFlowFloatingPoint
سینوس معکوس عنصر تانسور مشخص شده را بر می گرداند.
اعلام
@differentiable public func asin<T>(_ x: Tensor<T>) -> Tensor<T> where T : TensorFlowFloatingPoint
از نظر عنصر مماس معکوس تانسور مشخص را برمی گرداند.
اعلام
@differentiable public func atan<T>(_ x: Tensor<T>) -> Tensor<T> where T : TensorFlowFloatingPoint
کسینوس هذلولی معکوس عنصر تانسور مشخص را برمی گرداند.
اعلام
@differentiable public func acosh<T>(_ x: Tensor<T>) -> Tensor<T> where T : TensorFlowFloatingPoint
سینوس هایپربولیک معکوس عنصر تانسور مشخص را برمی گرداند.
اعلام
@differentiable public func asinh<T>(_ x: Tensor<T>) -> Tensor<T> where T : TensorFlowFloatingPoint
مماس هذلولی معکوس عنصر تانسور مشخص را بر می گرداند.
اعلام
@differentiable public func atanh<T>(_ x: Tensor<T>) -> Tensor<T> where T : TensorFlowFloatingPoint
ریشه مربعی عنصر تانسور مشخص شده را برمی گرداند.
اعلام
@differentiable public func sqrt<T>(_ x: Tensor<T>) -> Tensor<T> where T : TensorFlowFloatingPoint
ریشه مربع معکوس عنصر تانسور مشخص شده را برمی گرداند.
اعلام
@differentiable public func rsqrt<T>(_ x: Tensor<T>) -> Tensor<T> where T : TensorFlowFloatingPoint
از لحاظ عنصری تانسور مشخص شده را بر می گرداند.
اعلام
@differentiable public func exp<T>(_ x: Tensor<T>) -> Tensor<T> where T : TensorFlowFloatingPoint
دو مورد را که از نظر عنصر تانسور مشخص شده برمی گرداند.
اعلام
@differentiable public func exp2<T>(_ x: Tensor<T>) -> Tensor<T> where T : TensorFlowFloatingPoint
ده را به توان عنصر تانسور مشخص شده برمی گرداند.
اعلام
@differentiable public func exp10<T>(_ x: Tensor<T>) -> Tensor<T> where T : TensorFlowFloatingPoint
بازگشت نمایی از
x - 1
عنصر و حکیم است.اعلام
@differentiable public func expm1<T>(_ x: Tensor<T>) -> Tensor<T> where T : TensorFlowFloatingPoint
مقادیر تانسور مشخص گرد شده به نزدیکترین عدد صحیح ، از نظر عنصر.
اعلام
@differentiable public func round<T>(_ x: Tensor<T>) -> Tensor<T> where T : TensorFlowFloatingPoint
سقف تنسور مشخص شده را از نظر عنصر برمی گرداند.
اعلام
@differentiable public func ceil<T>(_ x: Tensor<T>) -> Tensor<T> where T : TensorFlowFloatingPoint
از نظر عنصر تانسور مشخص شده کف را برمی گرداند.
اعلام
@differentiable public func floor<T>(_ x: Tensor<T>) -> Tensor<T> where T : TensorFlowFloatingPoint
نشانه ای از علامت تانسور مشخص شده را از نظر عنصر برمی گرداند. به طور خاص، محاسبه
y = sign(x) = -1
اگرx < 0
؛ 0 اگرx == 0
؛ 1 اگرx > 0
.اعلام
@differentiable public func sign<T>(_ x: Tensor<T>) -> Tensor<T> where T : Numeric, T : TensorFlowScalar
سیگموئید عنصر تانسور مشخص شده را برمی گرداند. به طور خاص، محاسبه
1 / (1 + exp(-x))
.اعلام
@differentiable public func sigmoid<T>(_ x: Tensor<T>) -> Tensor<T> where T : TensorFlowFloatingPoint
سیگموئید ورود به سیستم عنصر تانسور مشخص را برمی گرداند. به طور خاص،
log(1 / (1 + exp(-x)))
. برای پایداری عددی، استفاده می کنیم-softplus(-x)
.اعلام
@differentiable public func logSigmoid<T>(_ x: Tensor<T>) -> Tensor<T> where T : TensorFlowFloatingPoint
نرم افزاری را از نظر عنصر تانسور مشخص برمی گرداند. به طور خاص، محاسبه
log(exp(features) + 1)
.اعلام
@differentiable public func softplus<T>(_ features: Tensor<T>) -> Tensor<T> where T : TensorFlowFloatingPoint
علامت نرم عنصر تانسور مشخص شده را برمی گرداند. به طور خاص، محاسبه
features/ (abs(features) + 1)
.اعلام
@differentiable public func softsign<T>(_ features: Tensor<T>) -> Tensor<T> where T : TensorFlowFloatingPoint
softmax تانسور مشخص شده را در امتداد آخرین محور برمی گرداند. به طور خاص، محاسبه
exp(x) / exp(x).sum(alongAxes: -1)
.اعلام
@differentiable public func softmax<T>(_ x: Tensor<T>) -> Tensor<T> where T : TensorFlowFloatingPoint
softmax تانسور مشخص شده را در امتداد محور مشخص برمی گرداند. به طور خاص، محاسبه
exp(x) / exp(x).sum(alongAxes: axis)
.اعلام
@differentiable public func softmax<T>(_ x: Tensor<T>, alongAxis axis: Int) -> Tensor<T> where T : TensorFlowFloatingPoint
log-softmax تانسور مشخص شده را از نظر عنصر بر می گرداند.
اعلام
@differentiable public func logSoftmax<T>(_ x: Tensor<T>) -> Tensor<T> where T : TensorFlowFloatingPoint
با اعمال یک واحد خطی نمایی ، یک تانسور را برمی گرداند. به طور خاص، محاسبه
exp(x) - 1
اگر <0،x
در غیر این صورت. مشاهده سریع و دقیق عمیق آموزش شبکه های نمایی خطی واحد (ELUs)اعلام
@differentiable public func elu<T>(_ x: Tensor<T>) -> Tensor<T> where T : TensorFlowFloatingPoint
فعالسازی واحد خطی گاوسی (GELU) عنصر تانسور مشخص شده را بر می گرداند.
به طور خاص،
gelu
تخمینxP(X <= x)
، که در آنP(X <= x)
توزیع تجمعی استاندارد گاوسی است، با محاسبه: X * [0.5 * (1 + tanh [√ (2 / π) * (X + 0.044715 * x^3)])].مشاهده خطا گاوسی خطی واحد .
اعلام
@differentiable public func gelu<T>(_ x: Tensor<T>) -> Tensor<T> where T : TensorFlowFloatingPoint
با اعمال تابع فعالسازی ReLU به عنصر تانسور مشخص شده ، یک تانسور را برمی گرداند. به طور خاص، محاسبه
max(0, x)
.اعلام
@differentiable public func relu<T>(_ x: Tensor<T>) -> Tensor<T> where T : TensorFlowFloatingPoint
بازده یک تانسور با استفاده از تابع فعال سازی ReLU6، یعنی
min(max(0, x), 6)
.اعلام
@differentiable public func relu6<T>(_ x: Tensor<T>) -> Tensor<T> where T : TensorFlowFloatingPoint
با اعمال تابع فعالسازی نشتی ReLU به عنصر تانسور مشخص شده ، یک تانسور را برمی گرداند. به طور خاص، محاسبه
max(x, x * alpha)
.اعلام
@differentiable(wrt: x) public func leakyRelu<T: TensorFlowFloatingPoint>( _ x: Tensor<T>, alpha: Double = 0.2 ) -> Tensor<T>
بازده یک تانسور با استفاده از تابع فعال سازی SeLU، یعنی
scale * alpha * (exp(x) - 1)
اگرx < 0
، وscale * x
در غیر این صورت.توجه داشته باشید
این طراحی شده است تا همراه با مقداردهنده های لایه مقیاس بندی واریانس استفاده شود. لطفا به شبکه های عصبی خود عادی برای اطلاعات بیشتر.اعلام
@differentiable public func selu<T>(_ x: Tensor<T>) -> Tensor<T> where T : TensorFlowFloatingPoint
بازده یک تانسور با استفاده از تابع فعال سازی صدای فش فش، یعنی
x * sigmoid(x)
.منبع: (. راماچاندران و همکاران 2017) "جستجو برای توابع فعال سازی" https://arxiv.org/abs/1710.05941
اعلام
@differentiable public func swish<T>(_ x: Tensor<T>) -> Tensor<T> where T : TensorFlowFloatingPoint
بازده یک تانسور با استفاده از تابع سیگموئید سخت فعال سازی، یعنی
Relu6(x+3)/6
.منبع: "جستجو برای MobileNetV3" (هوارد و همکاران 2019) https://arxiv.org/abs/1905.02244
اعلام
@differentiable public func hardSigmoid<T>(_ x: Tensor<T>) -> Tensor<T> where T : TensorFlowFloatingPoint
بازده یک تانسور با استفاده از تابع فعال سازی صدای فش فش سخت، یعنی
x * Relu6(x+3)/6
.منبع: "جستجو برای MobileNetV3" (هوارد و همکاران 2019) https://arxiv.org/abs/1905.02244
اعلام
@differentiable public func hardSwish<T>(_ x: Tensor<T>) -> Tensor<T> where T : TensorFlowFloatingPoint
بازده یک تانسور با استفاده از تابع فعال سازی و میش، یعنی
x * tanh(softplus(x))
.منبع: "میش: تابع خود منظم غیر یکنواخت عصبی فعال سازی" https://arxiv.org/abs/1908.08681
اعلام
@differentiable public func mish<T>(_ x: Tensor<T>) -> Tensor<T> where T : TensorFlowFloatingPoint
توان تانسور اول را به تانسور دوم برمی گرداند.
اعلام
@differentiable public func pow<T>(_ lhs: Tensor<T>, _ rhs: Tensor<T>) -> Tensor<T> where T : TensorFlowFloatingPoint
قدرت اسکالر را به تانسور بر می گرداند و مقیاس را پخش می کند.
اعلام
@differentiable(wrt: rhs) public func pow<T>(_ lhs: T, _ rhs: Tensor<T>) -> Tensor<T> where T : TensorFlowFloatingPoint
قدرت تانسور را به اسکالر بر می گرداند و مقیاس را پخش می کند.
اعلام
@differentiable(wrt: lhs) public func pow<T>(_ lhs: Tensor<T>, _ rhs: T) -> Tensor<T> where T : TensorFlowFloatingPoint
قدرت تانسور را به اسکالر بر می گرداند و مقیاس را پخش می کند.
اعلام
@differentiable public func pow<T>(_ x: Tensor<T>, _ n: Int) -> Tensor<T> where T : TensorFlowFloatingPoint
بازگرداندن عنصر عاقلانه
n
هفتم ریشه تانسور.اعلام
@differentiable public func root<T>(_ x: Tensor<T>, _ n: Int) -> Tensor<T> where T : TensorFlowFloatingPoint
بازده تفاوت های مربع بین
x
وy
.اعلام
@differentiable public func squaredDifference<T>(_ x: Tensor<T>, _ y: Tensor<T>) -> Tensor<T> where T : Numeric, T : TensorFlowScalar
مقدار بازگشتی
(x - y) ^ 2
.حداکثر دو تنسور را از نظر عنصر برمی گرداند.
توجه داشته باشید
max
از پخش برنامه ها.اعلام
@differentiable public func max<T>(_ lhs: Tensor<T>, _ rhs: Tensor<T>) -> Tensor<T> where T : Comparable, T : Numeric, T : TensorFlowScalar
حداکثر عنصر اسکالر و تانسور را باز می گرداند و مقیاس را پخش می کند.
اعلام
@differentiable(wrt: rhs) public func max<T>(_ lhs: T, _ rhs: Tensor<T>) -> Tensor<T> where T : Comparable, T : Numeric, T : TensorFlowScalar
حداکثر عنصر اسکالر و تانسور را باز می گرداند و مقیاس را پخش می کند.
اعلام
@differentiable(wrt: lhs) public func max<T>(_ lhs: Tensor<T>, _ rhs: T) -> Tensor<T> where T : Comparable, T : Numeric, T : TensorFlowScalar
حداقل عنصر دو تنسور را برمی گرداند.
توجه داشته باشید
min
از پخش برنامه ها.اعلام
@differentiable public func min<T>(_ lhs: Tensor<T>, _ rhs: Tensor<T>) -> Tensor<T> where T : Comparable, T : Numeric, T : TensorFlowScalar
حداقل عنصر اسکالر و تانسور را باز می گرداند و مقیاس را پخش می کند.
اعلام
@differentiable(wrt: rhs) public func min<T>(_ lhs: T, _ rhs: Tensor<T>) -> Tensor<T> where T : Comparable, T : Numeric, T : TensorFlowScalar
حداقل عنصر اسکالر و تانسور را باز می گرداند و مقیاس را پخش می کند.
اعلام
@differentiable(wrt: lhs) public func min<T>(_ lhs: Tensor<T>, _ rhs: T) -> Tensor<T> where T : Comparable, T : Numeric, T : TensorFlowScalar
بازگشت شباهت کسینوسی بین
x
وy
.اعلام
@differentiable public func cosineSimilarity<Scalar: TensorFlowFloatingPoint>( _ x: Tensor<Scalar>, _ y: Tensor<Scalar> ) -> Tensor<Scalar>
بازده فاصله کسینوس بین
x
وy
. فاصله کسینوس است تعریف می شود1 - cosineSimilarity(x, y)
.اعلام
@differentiable public func cosineDistance<Scalar: TensorFlowFloatingPoint>( _ x: Tensor<Scalar>, _ y: Tensor<Scalar> ) -> Tensor<Scalar>
یک کانولوشن 1 بعدی با ورودی ، فیلتر ، گام و پد مشخص شده برمی گرداند.
پیش شرط
input
باید رتبه دارند3
.پیش شرط
filter
باید رتبه 3 دارند.اعلام
@differentiable(wrt: (input, filter) public func conv1D<Scalar: TensorFlowFloatingPoint>( _ input: Tensor<Scalar>, filter: Tensor<Scalar>, stride: Int = 1, padding: Padding = .valid, dilation: Int = 1 ) -> Tensor<Scalar>
مولفه های
input
ورودی.
filter
فیلتر کانولوشن
stride
گام بلند فیلتر کشویی.
padding
بالشتک برای عملیات.
dilation
عامل اتساع
یک کانولوشن 2 بعدی با ورودی ، فیلتر ، گام ها و پد مشخص شده برمی گرداند.
پیش شرط
input
باید رتبه دارند4
.پیش شرط
filter
باید رتبه 4 است.اعلام
@differentiable(wrt: (input, filter) public func conv2D<Scalar: TensorFlowFloatingPoint>( _ input: Tensor<Scalar>, filter: Tensor<Scalar>, strides: (Int, Int, Int, Int) = (1, 1, 1, 1), padding: Padding = .valid, dilations: (Int, Int, Int, Int) = (1, 1, 1, 1) ) -> Tensor<Scalar>
مولفه های
input
ورودی.
filter
فیلتر کانولوشن
strides
مراحل فیلتر کشویی برای هر بعد ورودی.
padding
بالشتک برای عملیات
dilations
ضریب اتساع برای هر بعد ورودی.
یک کانولوشن جابجایی شده دو بعدی با ورودی ، فیلتر ، گام ها و پد مشخص شده را برمی گرداند.
پیش شرط
input
باید رتبه دارند4
.پیش شرط
filter
باید رتبه 4 است.اعلام
@differentiable(wrt: (input, filter) public func transposedConv2D<Scalar: TensorFlowFloatingPoint>( _ input: Tensor<Scalar>, shape: [Int64], filter: Tensor<Scalar>, strides: (Int, Int, Int, Int) = (1, 1, 1, 1), padding: Padding = .valid, dilations: (Int, Int, Int, Int) = (1, 1, 1, 1) ) -> Tensor<Scalar>
مولفه های
input
ورودی.
shape
شکل خروجی عمل تخلیه
filter
فیلتر کانولوشن
strides
مراحل فیلتر کشویی برای هر بعد ورودی.
padding
بالشتک برای عملیات
dilations
ضریب اتساع برای هر بعد ورودی.
یک کانولوشن سه بعدی با ورودی مشخص شده ، فیلتر ، گام ها ، بالشتک و اتساع باز می گرداند.
پیش شرط
input
باید رتبه دارند5
.پیش شرط
filter
باید رتبه 5 است.اعلام
@differentiable(wrt: (input, filter) public func conv3D<Scalar: TensorFlowFloatingPoint>( _ input: Tensor<Scalar>, filter: Tensor<Scalar>, strides: (Int, Int, Int, Int, Int) = (1, 1, 1, 1, 1), padding: Padding = .valid, dilations: (Int, Int, Int, Int, Int) = (1, 1, 1, 1, 1) ) -> Tensor<Scalar>
مولفه های
input
ورودی.
filter
فیلتر کانولوشن
strides
مراحل فیلتر کشویی برای هر بعد ورودی.
padding
بالشتک برای عملیات.
dilations
ضریب اتساع برای هر بعد ورودی.
یک کانولوشن عمیق دو بعدی با ورودی ، فیلتر ، گام ها و پد مشخص شده برمی گرداند.
پیش شرط
input
باید رتبه 4 است.پیش شرط
filter
باید رتبه 4 است.اعلام
@differentiable(wrt: (input, filter) public func depthwiseConv2D<Scalar: TensorFlowFloatingPoint>( _ input: Tensor<Scalar>, filter: Tensor<Scalar>, strides: (Int, Int, Int, Int), padding: Padding ) -> Tensor<Scalar>
مولفه های
input
ورودی.
filter
فیلتر پیچش عمیق
strides
مراحل فیلتر کشویی برای هر بعد ورودی.
padding
بالشتک برای عملیات.
یک ترکیب دو بعدی حداکثر ، با اندازه فیلترها ، گام ها و بالشتک مشخص شده را برمی گرداند.
اعلام
@differentiable(wrt: input) public func maxPool2D<Scalar: TensorFlowFloatingPoint>( _ input: Tensor<Scalar>, filterSize: (Int, Int, Int, Int), strides: (Int, Int, Int, Int), padding: Padding ) -> Tensor<Scalar>
مولفه های
input
ورودی.
filterSize
ابعاد هسته جمع آوری.
strides
مراحل فیلتر کشویی برای هر بعد ورودی.
padding
بالشتک برای عملیات.
یک ترکیب سه بعدی حداکثر ، با اندازه فیلترها ، گام ها و بالشتک مشخص شده را برمی گرداند.
اعلام
@differentiable(wrt: input) public func maxPool3D<Scalar: TensorFlowFloatingPoint>( _ input: Tensor<Scalar>, filterSize: (Int, Int, Int, Int, Int), strides: (Int, Int, Int, Int, Int), padding: Padding ) -> Tensor<Scalar>
مولفه های
input
ورودی.
filterSize
ابعاد هسته جمع آوری.
strides
مراحل فیلتر کشویی برای هر بعد ورودی.
padding
بالشتک برای عملیات.
یک جمع بندی متوسط 2 بعدی را با اندازه فیلترها ، گام ها و بالشتک مشخص شده برمی گرداند.
اعلام
@differentiable(wrt: input) public func avgPool2D<Scalar: TensorFlowFloatingPoint>( _ input: Tensor<Scalar>, filterSize: (Int, Int, Int, Int), strides: (Int, Int, Int, Int), padding: Padding ) -> Tensor<Scalar>
مولفه های
input
ورودی.
filterSize
ابعاد هسته جمع آوری.
strides
مراحل فیلتر کشویی برای هر بعد ورودی.
padding
بالشتک برای عملیات.
یک جمع بندی متوسط 3 بعدی را با اندازه فیلترها ، گام ها و بالشتک مشخص شده برمی گرداند.
اعلام
@differentiable(wrt: input) public func avgPool3D<Scalar: TensorFlowFloatingPoint>( _ input: Tensor<Scalar>, filterSize: (Int, Int, Int, Int, Int), strides: (Int, Int, Int, Int, Int), padding: Padding ) -> Tensor<Scalar>
مولفه های
input
ورودی.
filterSize
ابعاد هسته جمع آوری.
strides
مراحل فیلتر کشویی برای هر بعد ورودی.
padding
بالشتک برای عملیات.
حداکثر تجمع کسری دو بعدی را با نسبتهای تجمع مشخص شده برمی گرداند.
توجه:
fractionalMaxPool
کند یک پیاده سازی XLA ندارد، و در نتیجه ممکن است پیامدهای عملکرد داشته باشد.اعلام
@differentiable(wrt: input) public func fractionalMaxPool2D<Scalar: TensorFlowFloatingPoint>( _ input: Tensor<Scalar>, poolingRatio: (Double, Double, Double, Double), pseudoRandom: Bool = false, overlapping: Bool = false, deterministic: Bool = false, seed: Int64 = 0, seed2: Int64 = 0 ) -> Tensor<Scalar>
مولفه های
input
یک تنسور 4-D با شکل
[batch, height, width, channels]
.poolingRatio
لیستی از
Doubles
. نسبت ادغام برای هر بعد ازinput
، در حال حاضر تنها پشتیبانی از بعد سطر و ستون و باید> = 1.0 باشد.pseudoRandom
اختیاری
Bool
. به طور پیش فرض بهfalse
. هنگامی که به مجموعه ایtrue
، توالی ادغام در یک مد شبه تصادفی، در غیر این صورت، در مد تصادفی.overlapping
اختیاری
Bool
. به طور پیش فرض بهfalse
. هنگامی که مجموعه ای بهtrue
، به این معنی که ادغام، ارزش در مرز سلول ادغام مجاور توسط هر دو سلول استفاده می شود.deterministic
اختیاری
Bool
. هنگامی که مجموعه ای بهtrue
، یک منطقه ادغام ثابت خواهد شد که تکرار بیش از یک گره fractionalMaxPool2D در نمودار محاسبات استفاده می شود.seed
اختیاری
Int64
. به طور پیش فرض به0
. اگر غیر صفر باشد ، مولد عدد تصادفی توسط دانه داده شده قرار می گیرد.seed2
اختیاری
Int64
. به طور پیش فرض به0
. دانه دوم برای جلوگیری از برخورد بذر.یک کپی از گرداند
input
که در آن ارزش ها را از ابعاد عمق در بلوک های فضایی به ارتفاع و ابعاد عرض نقل مکان کرد.به عنوان مثال، با توجه به ورودی از شکل
[1, 2, 2, 1]
، data_format = "NHWC" و block_size = 2:x = [[[[1], [2]], [[3], [4]]]]
این خروجی عملیات یک تانسور شکل
[1, 1, 1, 4]
:[[[[1, 2, 3, 4]]]]
در اینجا، ورودی یک دسته ای از 1 و هر عنصر دسته ای است به شکل
[2, 2, 1]
، خروجی مربوطه خواهد یک عنصر (به عنوان مثال عرض و ارتفاع هر دو 1) و عمق 4 کانال (1 * اندازه_بلوک * اندازه_بلوک). شکل عنصر خروجی است[1, 1, 4]
.برای یک تانسور ورودی با عمق بزرگتر، اینجا از شکل
[1, 2, 2, 3]
، به عنوان مثالx = [[[[1, 2, 3], [4, 5, 6]], [[7, 8, 9], [10, 11, 12]]]]
این عملیات، برای block_size 2، خواهد تانسور زیر شکل بازگشت
[1, 1, 1, 12]
[[[[1, 2, 3, 4, 5, 6, 7, 8, 9, 10, 11, 12]]]]
به طور مشابه، برای از ورودی های زیر شکل
[1 4 4 1]
، و اندازه بلوک 2:x = [[[[1], [2], [5], [6]], [[3], [4], [7], [8]], [[9], [10], [13], [14]], [[11], [12], [15], [16]]]]
اپراتور تانسور زیر شکل بازگشت
[1 2 2 4]
:x = [[[[1, 2, 3, 4], [5, 6, 7, 8]], [[9, 10, 11, 12], [13, 14, 15, 16]]]]
پیش شرط
input.rank == 4 && b >= 2
.پیش شرط
تعداد از ویژگی های باید توسط بخش پذیر باشد مربع ازb
.اعلام
@differentiable(wrt: input) public func depthToSpace<Scalar>(_ input: Tensor<Scalar>, blockSize b: Int) -> Tensor<Scalar> where Scalar : TensorFlowScalar
یک کپی از گرداند
input
که در آن ارزش ها از ارتفاع و ابعاد عرض به عمق ابعاد نقل مکان کرد.به عنوان مثال، با توجه به ورودی از شکل
[1, 2, 2, 1]
، data_format = "NHWC" و block_size = 2:x = [[[[1], [2]], [[3], [4]]]]
این خروجی عملیات یک تانسور شکل
[1, 1, 1, 4]
:[[[[1, 2, 3, 4]]]]
Here, the input has a batch of 1 and each batch element has shape
[2, 2, 1]
, the corresponding output will have a single element (ie width and height are both 1) and will have a depth of 4 channels (1 * block_size * block_size). The output element shape is[1, 1, 4]
.For an input tensor with larger depth, here of shape
[1, 2, 2, 3]
, egx = [[[[1, 2, 3], [4, 5, 6]], [[7, 8, 9], [10, 11, 12]]]]
This operation, for block_size of 2, will return the following tensor of shape
[1, 1, 1, 12]
[[[[1, 2, 3, 4, 5, 6, 7, 8, 9, 10, 11, 12]]]]
Similarly, for the following input of shape
[1 4 4 1]
, and a block size of 2:x = [[[[1], [2], [5], [6]], [[3], [4], [7], [8]], [[9], [10], [13], [14]], [[11], [12], [15], [16]]]]
the operator will return the following tensor of shape
[1 2 2 4]
:x = [[[[1, 2, 3, 4], [5, 6, 7, 8]], [[9, 10, 11, 12], [13, 14, 15, 16]]]]
Precondition
input.rank == 4 && b >= 2
.Precondition
The height of the input must be divisible byb
.Precondition
The width of the input must be divisible byb
.اعلام
@differentiable(wrt: input) public func spaceToDepth<Scalar>(_ input: Tensor<Scalar>, blockSize b: Int) -> Tensor<Scalar> where Scalar : TensorFlowScalar
Builds a per-weight optimizer for LARS ( https://arxiv.org/pdf/1708.03888.pdf ).
اعلام
public func makeLARS( learningRate: Float = 0.01, momentum: Float = 0.9, trustCoefficient: Float = 0.001, nesterov: Bool = false, epsilon: Float = 0.0, weightDecay: Float = 0.0 ) -> ParameterGroupOptimizer
Builds a SGD based per-weight optimizer.
اعلام
public func makeSGD( learningRate: Float = 0.01, momentum: Float = 0, weightDecay: Float = 0, nesterov: Bool = false ) -> ParameterGroupOptimizer
Builds a per-weight optimizer for Adam with weight decay.
اعلام
public func makeAdam( learningRate: Float = 0.01, beta1: Float = 0.9, beta2: Float = 0.999, weightDecayRate: Float = 0.01, epsilon: Float = 1e-6 ) -> ParameterGroupOptimizer
Generates a new random seed for TensorFlow.
اعلام
public func randomSeedForTensorFlow(using seed: TensorFlowSeed? = nil) -> TensorFlowSeed
Concatenates two values.
اعلام
@differentiable public func concatenate<T: Mergeable>( _ first: T, _ second: T ) -> T
Adds two values and produces their sum.
اعلام
@differentiable public func sum<T: Mergeable>( _ first: T, _ second: T ) -> T
Averages two values.
اعلام
@differentiable public func average<T: Mergeable>( _ first: T, _ second: T ) -> T
Multiplies two values.
اعلام
@differentiable public func multiply<T: Mergeable>( _ first: T, _ second: T ) -> T
Stack two values.
اعلام
@differentiable public func stack<T: Mergeable>( _ first: T, _ second: T ) -> T
اعلام
public func PrintX10Metrics()
Creates a string summary of a list of training and testing stats.
اعلام
public func formatStatistics(_ stats: (train: HostStatistics, test: HostStatistics)) -> String
اعلام
public func formatStatistics(train trainStats: HostStatistics, test testStats: HostStatistics) -> String
Maps a function over n threads.
اعلام
public func runOnNThreads<R>(_ nThreads: Int, _ body: @escaping (Int) -> R) -> [R]