@frozen
public struct Tensor<Scalar> where Scalar : TensorFlowScalar
extension Tensor: Collatable
extension Tensor: CopyableToDevice
extension Tensor: AnyTensor
extension Tensor: ExpressibleByArrayLiteral
extension Tensor: CustomStringConvertible
extension Tensor: CustomPlaygroundDisplayConvertible
extension Tensor: CustomReflectable
extension Tensor: Equatable where Scalar: Equatable
extension Tensor: TensorProtocol
extension Tensor: TensorGroup
l10n-extension Tensor: ElementaryFunctions where Scalar: TensorFlowFloatingPoint
extension Tensor: Mergeable where Scalar: TensorFlowFloatingPoint
-extension Tensor: VectorProtocol where Scalar: TensorFlowFloatingPoint
extension Tensor: Codable where Scalar: Codable
extension Tensor: AdditiveArithmetic where Scalar: Numeric
extension Tensor: PointwiseMultiplicative where Scalar: Numeric
extension Tensor: Differentiable & EuclideanDifferentiable where Scalar: TensorFlowFloatingPoint
extension Tensor: DifferentiableTensorProtocol
where Scalar: TensorFlowFloatingPoint
উপাদানগুলির একটি বহুমাত্রিক বিন্যাস যা সম্ভাব্য উচ্চ মাত্রায় ভেক্টর এবং ম্যাট্রিক্সের সাধারণীকরণ।
জেনেরিক প্যারামিটার Scalar
টেনসরের স্কেলারের ধরন বর্ণনা করে (যেমন Int32
, Float
, ইত্যাদি)।
অন্তর্নিহিত
TensorHandle
।বিঃদ্রঃ
handle
ব্যবহারকারীর সংজ্ঞায়িত অপ্স মঞ্জুরি দেওয়ার জন্য সর্বজনীন, কিন্তু সাধারণত ব্যবহার করা উচিত নয়।ঘোষণা
public let handle: TensorHandle<Scalar>
ঘোষণা
public init(handle: TensorHandle<Scalar>)
একটি র্যাঙ্ক-
R
টেনসরের প্রদত্ত মাত্রাকে একাধিক র্যাঙ্ক-(R-1)
টেনসরে আনপ্যাক করে। এই টেনসর থেকেN
টেনসরগুলিকেaxis
মাত্রা বরাবর চিপ করে আনপ্যাক করে, যেখানে এই টেনসরের আকৃতি থেকেN
অনুমান করা হয়। উদাহরণস্বরূপ, আকৃতি[A, B, C, D]
সহ একটি টেনসর দেওয়া হয়েছে:- যদি
axis == 0
হয় তাহলে রিটার্ন করা অ্যারেরi
-th টেনসর হল স্লাইসself[i, :, :, :]
এবং সেই অ্যারের প্রতিটি টেনসরের আকৃতি থাকবে[B, C, D]
। (মনে রাখবেন যে প্যাক করা ডাইমেনশনটি চলে গেছে,Tensor.split(numSplits:alongAxis)
বাTensor.split(sizes:alongAxis)
এর বিপরীতে। - যদি
axis == 1
হয়, তাহলে প্রত্যাবর্তিত অ্যারেরi
-th টেনসর হল স্লাইসvalue[:, i, :, :]
এবং সেই অ্যারের প্রতিটি টেনসরের আকৃতি হবে[A, C, D]
। - ইত্যাদি।
এটি
Tensor.init(stacking:alongAxis:)
এর বিপরীত।পূর্বশর্ত
axis
অবশ্যই[-rank, rank)
রেঞ্জের মধ্যে থাকতে হবে, যেখানেrank
হল প্রদত্ত টেনসরের র্যাঙ্ক।ঘোষণা
@differentiable public func unstacked(alongAxis axis: Int = 0) -> [Tensor]
পরামিতি
axis
ডাইমেনশন যার সাথে আনস্ট্যাক করতে হবে। নেতিবাচক মান চারপাশে মোড়ানো.
ফেরত মূল্য
আনস্ট্যাকড টেনসর ধারণকারী অ্যারে।
- যদি
একটি টেনসরকে একাধিক টেনসরে বিভক্ত করে। টেনসরটি মাত্রা
axis
বরাবর বিভক্ত হয়ে ছোট টেনসরcount
। এর জন্য প্রয়োজন যেcount
সমানভাবেshape[axis]
ভাগ করে।উদাহরণ স্বরূপ:
// 'value' is a tensor with shape [5, 30] // Split 'value' into 3 tensors along dimension 1: let parts = value.split(count: 3, alongAxis: 1) parts[0] // has shape [5, 10] parts[1] // has shape [5, 10] parts[2] // has shape [5, 10]
পূর্বশর্ত
count
অবশ্যই মাত্রাaxis
আকার সমানভাবে ভাগ করতে হবে।পূর্বশর্ত
axis
অবশ্যই[-rank, rank)
রেঞ্জের মধ্যে থাকতে হবে, যেখানেrank
হল প্রদত্ত টেনসরের র্যাঙ্ক।ঘোষণা
@differentiable public func split(count: Int, alongAxis axis: Int = 0) -> [Tensor]
পরামিতি
count
তৈরি করার জন্য বিভাজনের সংখ্যা।
axis
এই টেনসরকে বিভক্ত করার জন্য যে মাত্রা। নেতিবাচক মান চারপাশে মোড়ানো.
ফেরত মূল্য
টেনসর অংশ ধারণকারী একটি অ্যারে।
একটি টেনসরকে একাধিক টেনসরে বিভক্ত করে। টেনসর
sizes.shape[0]
বিভক্ত হয়।i
-th অংশের আকৃতিটি এই টেনসরের মতো একই আকার ধারণ করে ব্যতীত মাত্রাaxis
বরাবর যেখানে আকারটিsizes[i]
।উদাহরণ স্বরূপ:
// 'value' is a tensor with shape [5, 30] // Split 'value' into 3 tensors with sizes [4, 15, 11] along dimension 1: let parts = value.split(sizes: Tensor<Int32>([4, 15, 11]), alongAxis: 1) parts[0] // has shape [5, 4] parts[1] // has shape [5, 15] parts[2] // has shape [5, 11]
পূর্বশর্ত
sizes
মানগুলি অবশ্যই মাত্রাaxis
আকারের সাথে যোগ করতে হবে৷পূর্বশর্ত
axis
অবশ্যই[-rank, rank)
রেঞ্জের মধ্যে থাকতে হবে, যেখানেrank
হল প্রদত্ত টেনসরের র্যাঙ্ক।ঘোষণা
@differentiable(wrt: self) public func split(sizes: Tensor<Int32>, alongAxis axis: Int = 0) -> [Tensor]
পরামিতি
sizes
প্রতিটি বিভাজনের আকার ধারণকারী 1-D টেনসর।
axis
ডাইমেনশন যার সাথে এই টেনসরকে বিভক্ত করতে হবে। নেতিবাচক মান চারপাশে মোড়ানো.
ফেরত মূল্য
টেনসর অংশ সমন্বিত অ্যারে।
ঘোষণা
@differentiable(wrt: self) public func split(sizes: [Int], alongAxis axis: Int = 0) -> [Tensor]
এই টেনসর টাইল করে নির্মিত একটি টাইলযুক্ত টেনসর প্রদান করে।
এই কনস্ট্রাক্টর এই টেনসরকে
multiples
প্রতিলিপি করে একটি নতুন টেনসর তৈরি করে। নির্মিত টেনসরেরi
ডাইমেনশনেself.shape[i] * multiples[i]
উপাদান রয়েছে এবং এই টেনসরের মানগুলিi
ডাইমেনশন বরাবরmultiples[i]
প্রতিলিপি করা হয়। উদাহরণস্বরূপ,[abcd]
দ্বারা[2]
টাইলিং করলে[abcdabcd]
উৎপন্ন হয়।পূর্বশর্ত
multiples
আকৃতি অবশ্যই[tensor.rank]
হতে হবে।পূর্বশর্ত
multiples
সব স্কেলার অ-নেতিবাচক হতে হবে.ঘোষণা
@differentiable(wrt: self) public func tiled(multiples: [Int]) -> Tensor
এই টেনসর টাইল করে নির্মিত একটি টাইলযুক্ত টেনসর প্রদান করে।
এই কনস্ট্রাক্টর এই টেনসরকে
multiples
প্রতিলিপি করে একটি নতুন টেনসর তৈরি করে। নির্মিত টেনসরেরi
ডাইমেনশনেself.shape[i] * multiples[i]
উপাদান রয়েছে এবং এই টেনসরের মানগুলিi
ডাইমেনশন বরাবরmultiples[i]
প্রতিলিপি করা হয়। উদাহরণস্বরূপ,[abcd]
দ্বারা[2]
টাইলিং করলে[abcdabcd]
উৎপন্ন হয়।পূর্বশর্ত
multiples
আকৃতি অবশ্যই[tensor.rank]
হতে হবে।ঘোষণা
@differentiable(wrt: self) public func tiled(multiples: Tensor<Int32>) -> Tensor
নির্দিষ্ট
Tensor
আকারে পুনরায় আকার দিন।পূর্বশর্ত
স্কেলারের সংখ্যা নতুন আকৃতির সাথে মেলে।ঘোষণা
@differentiable(wrt: self) public func reshaped<T>(like other: Tensor<T>) -> Tensor where T : TensorFlowScalar
নির্দিষ্ট আকারে পুনরায় আকার দিন।
পূর্বশর্ত
স্কেলারের সংখ্যা নতুন আকৃতির সাথে মেলে।ঘোষণা
@differentiable(wrt: self) public func reshaped(to newShape: TensorShape) -> Tensor
একটি আকৃতির প্রতিনিধিত্বকারী নির্দিষ্ট
Tensor
পুনরায় আকার দিন।পূর্বশর্ত
স্কেলারের সংখ্যা নতুন আকৃতির সাথে মেলে।ঘোষণা
@differentiable(wrt: self) public func reshaped(toShape newShape: Tensor<Int32>) -> Tensor
সারি-মেজর ক্রমে 1-ডি
Tensor
ভেঙে পড়া টেনসরের একটি অনুলিপি ফেরত দিন।ঘোষণা
@differentiable(wrt: self) public func flattened() -> Tensor
নির্দিষ্ট আকৃতির সূচকে 1 এর মাত্রা সন্নিবেশিত করে একটি আকৃতি-প্রসারিত
Tensor
প্রদান করে।ঘোষণা
@differentiable(wrt: self) public func expandingShape(at axes: Int...) -> Tensor
নির্দিষ্ট আকৃতির সূচকে 1 এর মাত্রা সন্নিবেশিত করে একটি আকৃতি-প্রসারিত
Tensor
প্রদান করে।ঘোষণা
@differentiable(wrt: self) public func expandingShape(at axes: [Int]) -> Tensor
1-এর অগ্রবর্তী মাত্রা সহ একটি র্যাঙ্ক-উত্তোলিত
Tensor
প্রদান করে।ঘোষণা
@differentiable(wrt: self) public func rankLifted() -> Tensor
একটি টেনসরের আকৃতি থেকে আকার 1 এর নির্দিষ্ট মাত্রা সরিয়ে দেয়। যদি কোন মাত্রা নির্দিষ্ট করা না থাকে, তাহলে আকার 1 এর সমস্ত মাত্রা সরানো হবে।
ঘোষণা
@differentiable(wrt: self) public func squeezingShape(at axes: Int...) -> Tensor
একটি টেনসরের আকৃতি থেকে আকার 1 এর নির্দিষ্ট মাত্রা সরিয়ে দেয়। যদি কোন মাত্রা নির্দিষ্ট করা না থাকে, তাহলে আকার 1 এর সমস্ত মাত্রা সরানো হবে।
ঘোষণা
@differentiable(wrt: self) public func squeezingShape(at axes: [Int]) -> Tensor
একটি ট্রান্সপোজড টেনসর প্রদান করে, যার মাত্রা নির্দিষ্ট ক্রমে অনুমতি দেওয়া হয়।
ঘোষণা
@differentiable(wrt: self) public func transposed(permutation: Tensor<Int32>) -> Tensor
একটি ট্রান্সপোজড টেনসর প্রদান করে, যার মাত্রা নির্দিষ্ট ক্রমে অনুমতি দেওয়া হয়।
ঘোষণা
@available(*, deprecated, renamed: "transposed(permutation:﹚") @differentiable(wrt: self) public func transposed(withPermutations permutations: Tensor<Int32>) -> Tensor
একটি ট্রান্সপোজড টেনসর প্রদান করে, যার মাত্রা নির্দিষ্ট ক্রমে অনুমতি দেওয়া হয়।
ঘোষণা
@differentiable(wrt: self) public func transposed(permutation: [Int]) -> Tensor
একটি ট্রান্সপোজড টেনসর প্রদান করে, যার মাত্রা নির্দিষ্ট ক্রমে অনুমতি দেওয়া হয়।
ঘোষণা
@available(*, deprecated, renamed: "transposed(permutation:﹚") @differentiable(wrt: self) public func transposed(withPermutations permutations: [Int]) -> Tensor
একটি ট্রান্সপোজড টেনসর প্রদান করে, যার মাত্রা নির্দিষ্ট ক্রমে অনুমতি দেওয়া হয়।
ঘোষণা
@differentiable(wrt: self) public func transposed(permutation: Int...) -> Tensor
একটি ট্রান্সপোজড টেনসর প্রদান করে, যার মাত্রা নির্দিষ্ট ক্রমে অনুমতি দেওয়া হয়।
ঘোষণা
@available(*, deprecated, renamed: "transposed(permutation:﹚") @differentiable(wrt: self) public func transposed(withPermutations permutations: Int...) -> Tensor
একটি ট্রান্সপোজড টেনসর ফেরত দেয়, যার মাত্রা বিপরীত ক্রমে অনুমতি দেওয়া হয়।
ঘোষণা
@differentiable(wrt: self) public func transposed() -> Tensor
উল্টানো নির্দিষ্ট মাত্রা সহ একটি টেনসর প্রদান করে।
পূর্বশর্ত
axes
প্রতিটি মান অবশ্যই রেঞ্জ-rank..<rank
।পূর্বশর্ত
axes
কোন ডুপ্লিকেশন থাকতে হবে।ঘোষণা
@differentiable(wrt: self) public func reversed(inAxes axes: Tensor<Int32>) -> Tensor
উল্টানো নির্দিষ্ট মাত্রা সহ একটি টেনসর প্রদান করে।
পূর্বশর্ত
axes
প্রতিটি মান অবশ্যই রেঞ্জ-rank..<rank
।পূর্বশর্ত
axes
কোন ডুপ্লিকেশন থাকতে হবে।ঘোষণা
@differentiable(wrt: self) public func reversed(inAxes axes: [Int]) -> Tensor
উল্টানো নির্দিষ্ট মাত্রা সহ একটি টেনসর প্রদান করে।
পূর্বশর্ত
axes
প্রতিটি মান অবশ্যই রেঞ্জ-rank..<rank
।পূর্বশর্ত
axes
কোন ডুপ্লিকেশন থাকতে হবে।ঘোষণা
@differentiable(wrt: self) public func reversed(inAxes axes: Int...) -> Tensor
নির্দিষ্ট অক্ষ বরাবর একটি সংযুক্ত টেনসর প্রদান করে।
পূর্বশর্ত
নির্দিষ্ট অক্ষ ব্যতীত টেনসরগুলির অবশ্যই একই মাত্রা থাকতে হবে।পূর্বশর্ত
অক্ষটি অবশ্যই রেঞ্জ-rank..<rank
।ঘোষণা
@differentiable public func concatenated(with other: Tensor, alongAxis axis: Int = 0) -> Tensor
সংযোগ অপারেটর।
বিঃদ্রঃ
++
হল একটি কাস্টম অপারেটর যা সুইফটে নেই, কিন্তু হাসকেল/স্কালাতে আছে। এটির সংযোজন একটি তুচ্ছ ভাষা পরিবর্তন নয় এবং বিতর্কিত হতে পারে। পরবর্তী API ডিজাইন পর্বে++
এর অস্তিত্ব/নামকরণ নিয়ে আলোচনা করা হবে।ঘোষণা
@differentiable public static func ++ (lhs: Tensor, rhs: Tensor) -> Tensor
axis
মাত্রা বরাবরindices
ইনপুটের স্লাইস সংগ্রহ করে একটি টেনসর প্রদান করে0-D (স্কেলার)
indices
জন্য:result[p_0, ..., p_{axis-1}, p_{axis + 1}, ..., p_{N-1}] = self[p_0, ..., p_{axis-1}, indices, p_{axis + 1}, ..., p_{N-1}]
1-D (ভেক্টর)
indices
জন্য:result[p_0, ..., p_{axis-1}, i, p_{axis + 1}, ..., p_{N-1}] = self[p_0, ..., p_{axis-1}, indices[i], p_{axis + 1}, ..., p_{N-1}]
সাধারণ ক্ষেত্রে, একটি ফলস্বরূপ টেনসর তৈরি করে যেখানে:
result[p_0, ..., p_{axis-1}, i_{batch\_dims}, ..., i_{M-1}, p_{axis + 1}, ..., p_{N-1}] = self[p_0, ..., p_{axis-1}, indices[i_0, ..., i_{M-1}], p_{axis + 1}, ..., p_{N-1}]
যেখানে
N = self.rank
এবংM = indices.rank
।ফলস্বরূপ টেনসরের আকৃতি হল:
self.shape[..<axis] + indices.shape + self.shape[(axis + 1)...]
বিঃদ্রঃ
CPU-তে, যদি রেঞ্জের বাইরে একটি সূচক পাওয়া যায়, একটি ত্রুটি নিক্ষেপ করা হয়। GPU-তে, যদি একটি সীমার বাইরের সূচক পাওয়া যায়, একটি 0 সংশ্লিষ্ট আউটপুট মানগুলিতে সংরক্ষণ করা হয়।
পূর্বশর্ত
axis
অবশ্যই[-rank, rank)
পরিসরে থাকতে হবে।ঘোষণা
@differentiable(wrt: self) public func gathering<Index: TensorFlowIndex>( atIndices indices: Tensor<Index>, alongAxis axis: Int = 0 ) -> Tensor
পরামিতি
indices
সূচকগুলিকে সংগ্রহ করতে হবে।
axis
মাত্রা যা বরাবর জড়ো করা. নেতিবাচক মান চারপাশে মোড়ানো.
ফেরত মূল্য
সংগৃহীত টেনসর।
axis
মাত্রার সাথে সঙ্গতিপূর্ণ প্রথমbatchDimensionCount
উপেক্ষা করার সময় অক্ষের মাত্রা বরাবরindices
এই টেনসরের স্লাইস ফেরত দেয়। সংগ্রহ প্রথম নন-ব্যাচ মাত্রা বরাবর সঞ্চালিত হয়.gathering
অনুরূপ কার্যকারিতা সম্পাদন করে, ব্যতীত যে টেনসরের আকৃতিটি এখনshape[..<axis] + indices.shape[batchDimensionCount...] + shape[(axis + 1)...]
পূর্বশর্ত
axis
অবশ্যই-rank..<rank
,batchDimensionCount
চেয়ে বড় বা সমান।পূর্বশর্ত
batchDimensionCount
অবশ্যইindices.rank
থেকে কম হতে হবে।ঘোষণা
@differentiable(wrt: self) public func batchGathering<Index: TensorFlowIndex>( atIndices indices: Tensor<Index>, alongAxis axis: Int = 1, batchDimensionCount: Int = 1 ) -> Tensor
পরামিতি
indices
সংগ্রহ করার জন্য সূচক রয়েছে।
axis
মাত্রা যা বরাবর জড়ো করা. নেতিবাচক মান চারপাশে মোড়ানো.
batchDimensionCount
অগ্রগণ্য ব্যাচের মাত্রা উপেক্ষা করার জন্য সংখ্যা।
ফেরত মূল্য
সংগৃহীত টেনসর।
ইনপুটে প্রদত্ত বুলিয়ান মাস্ক প্রয়োগ করার পরে মানগুলি সংগ্রহ করে একটি টেনসর প্রদান করে।
উদাহরণ স্বরূপ:
// 1-D example // tensor is [0, 1, 2, 3] // mask is [true, false, true, false] tensor.gathering(where: mask) // is [0, 2] // 2-D example // tensor is [[1, 2], [3, 4], [5, 6]] // mask is [true, false, true] tensor.gathering(where: mask) // is [[1, 2], [5, 6]]
সাধারণভাবে,
0 < mask.rank = K <= tensor.rank
, এবংmask
আকৃতি অবশ্যইtensor
আকৃতির প্রথম K মাত্রার সাথে মেলে। তারপর আমাদের আছে:tensor.gathering(where: mask)[i, j1, ..., jd] = tensor[i1, ..., iK, j1, ..., jd]
যেখানে[i1, ..., iK]
হলmask
i
প্রবেশ (সারি-প্রধান ক্রম)true
axis
mask
সাথে ব্যবহার করা যেতে পারে অক্ষ থেকে মুখোশের জন্য নির্দেশ করতে। সেক্ষেত্রে,axis + mask.rank <= tensor.rank
এবংmask
's shape must match the first
অক্ষ + mask.rankdimensions of the
সাথে মিলবে।পূর্বশর্ত
mask
একটি স্কেলার হতে পারে না:mask.rank != 0
।ঘোষণা
@differentiable(wrt: self) public func gathering(where mask: Tensor<Bool>, alongAxis axis: Int = 0) -> Tensor
পরামিতি
mask
KD বুলিয়ান টেনসর, যেখানে
K <= self.rank
।axis
0-D পূর্ণসংখ্যা টেনসর
self
থেকে মুখোশের মধ্যে অক্ষের প্রতিনিধিত্ব করে, যেখানেK + axis <= self.rank
।ফেরত মূল্য
(self.rank - K + 1)
-মাত্রিক টেনসরmask
true
মানগুলির সাথে সম্পর্কিত এই টেনসরের এন্ট্রি দ্বারা জনবহুল।এই টেনসরে অ-শূন্য/সত্য মানগুলির অবস্থানগুলি প্রদান করে।
স্থানাঙ্কগুলি একটি 2-ডি টেনসরে ফেরত দেওয়া হয় যেখানে প্রথম মাত্রা (সারি) অ-শূন্য উপাদানগুলির সংখ্যা প্রতিনিধিত্ব করে এবং দ্বিতীয় মাত্রা (কলাম) অ-শূন্য উপাদানগুলির স্থানাঙ্কগুলিকে উপস্থাপন করে। মনে রাখবেন যে আউটপুট টেনসরের আকার এই টেনসরে কতগুলি সত্য মান রয়েছে তার উপর নির্ভর করে পরিবর্তিত হতে পারে। সূচকগুলি সারি-প্রধান ক্রমে আউটপুট হয়।
উদাহরণ স্বরূপ:
// 'input' is [[true, false], [true, false]] // 'input' has 2 true values and so the output has 2 rows. // 'input' has rank of 2, and so the second dimension of the output has size 2. input.nonZeroIndices() // is [[0, 0], [1, 0]] // 'input' is [[[ true, false], [ true, false]], // [[false, true], [false, true]], // [[false, false], [false, true]]] // 'input' has 5 true values and so the output has 5 rows. // 'input' has rank 3, and so the second dimension of the output has size 3. input.nonZeroIndices() // is [[0, 0, 0], // [0, 1, 0], // [1, 0, 1], // [1, 1, 1], // [2, 1, 1]]
ঘোষণা
public func nonZeroIndices() -> Tensor<Int64>
ফেরত মূল্য
আকৃতি সহ একটি টেনসর
(num_true, rank(condition))
।ঘোষণা
@differentiable(wrt: self) public func broadcasted(toShape shape: Tensor<Int32>) -> Tensor
ঘোষণা
@differentiable(wrt: self) public func broadcasted(to shape: TensorShape) -> Tensor
নির্দিষ্ট
Tensor
মতো একই আকারে সম্প্রচার করুন।পূর্বশর্ত
নির্দিষ্ট আকৃতি অবশ্যই সম্প্রচারের জন্য সামঞ্জস্যপূর্ণ হতে হবে।ঘোষণা
@differentiable(wrt: self) public func broadcasted<OtherScalar>(like other: Tensor<OtherScalar>) -> Tensor where OtherScalar : TensorFlowScalar
ঘোষণা
public static func .= (lhs: inout Tensor, rhs: Tensor)
প্রতিটি মাত্রার জন্য নিম্ন এবং উপরের সীমানা দ্বারা সংজ্ঞায়িত টেনসর থেকে একটি স্লাইস বের করে।
ঘোষণা
@differentiable(wrt: self) public func slice(lowerBounds: [Int], upperBounds: [Int]) -> Tensor
পরামিতি
lowerBounds
প্রতিটি মাত্রায় নিম্ন সীমানা।
upperBounds
প্রতিটি মাত্রায় উপরের সীমানা।
ঘোষণা
@differentiable(wrt: self) public func slice(lowerBounds: Tensor<Int32>, sizes: Tensor<Int32>) -> Tensor
ঘোষণা
@differentiable(wrt: self) public func slice(lowerBounds: [Int], sizes: [Int]) -> Tensor
ঘোষণা
@differentiable(wrt: self) public subscript(ranges: TensorRangeExpression...) -> Tensor { get set }
চেক করে যে
axes
প্রতিটি উপাদানself
এর একটি অক্ষকে নির্দেশ করে, এবং অন্যথায় একটি ডায়াগনস্টিক দিয়ে প্রোগ্রামটিকে থামায়।ঘোষণা
func ensureValid( axes: Tensor<Int32>, function: StaticString = #function, file: StaticString = #file, line: UInt = #line )
চেক করে যে
axes
প্রতিটি উপাদানself
এর একটি অক্ষকে নির্দেশ করে, এবং অন্যথায় একটি ডায়াগনস্টিক দিয়ে প্রোগ্রামটিকে থামায়।ঘোষণা
func ensureValid( axes: [Int], function: StaticString = #function, file: StaticString = #file, line: UInt = #line )
চেক করে যে
k
self
এর একটি অক্ষকে নির্দেশ করে, এবং অন্যথায় একটি ডায়াগনস্টিক দিয়ে প্রোগ্রামটিকে থামায়।ঘোষণা
func ensureValid( axis k: Int, function: StaticString = #function, file: StaticString = #file, line: UInt = #line )
ঘোষণা
public init<BatchSamples: Collection>(collating samples: BatchSamples) where BatchSamples.Element == Self
নির্দিষ্ট আকৃতি এবং একটি একক, পুনরাবৃত্তি স্কেলার মান সহ একটি টেনসর তৈরি করে।
ঘোষণা
@available(*, deprecated, renamed: "init(repeating:shape:﹚") public init(shape: TensorShape, repeating repeatedValue: Scalar)
পরামিতি
shape
টেনসরের মাত্রা।
repeatedValue
পুনরাবৃত্তি করার জন্য স্কেলার মান।
নির্দিষ্ট আকৃতি এবং একটি একক, পুনরাবৃত্তি স্কেলার মান সহ একটি টেনসর তৈরি করে।
ঘোষণা
@differentiable public init( repeating repeatedValue: Scalar, shape: TensorShape, on device: Device = .default )
পরামিতি
repeatedValue
পুনরাবৃত্তি করার জন্য স্কেলার মান।
shape
টেনসরের মাত্রা।
প্রদত্ত স্কেলারকে একটি প্রদত্ত র্যাঙ্কে সম্প্রচার করে একটি টেনসর তৈরি করে যার সমস্ত মাত্রা 1।
ঘোষণা
public init(broadcasting scalar: Scalar, rank: Int, on device: Device = .default)
টেনসরের একটি অ্যারে থেকে একটি টেনসর তৈরি করে (যা নিজেরাই স্কেলার হতে পারে)।
ঘোষণা
@differentiable public init(_ elements: [Tensor])
স্ট্যাক
tensors
,axis
মাত্রা বরাবর, একটি নতুন টেনসরে পরিণত করে যার র্যাঙ্ক বর্তমান টেনসরের থেকে এক উচ্চতর এবং প্রতিটিtensors
টেনসর।প্রদত্ত যে
tensors
সমস্ত আকৃতি[A, B, C]
, এবংtensors.count = N
, তারপর:- যদি
axis == 0
তাহলে টেনসরের আকৃতি হবে[N, A, B, C]
। - যদি
axis == 1
হয় তাহলে ফলস্বরূপ টেনসরের আকৃতি হবে[A, N, B, C]
। - ইত্যাদি
উদাহরণ স্বরূপ:
// 'x' is [1, 4] // 'y' is [2, 5] // 'z' is [3, 6] Tensor(stacking: [x, y, z]) // is [[1, 4], [2, 5], [3, 6]] Tensor(stacking: [x, y, z], alongAxis: 1) // is [[1, 2, 3], [4, 5, 6]]
এটি
Tensor.unstacked(alongAxis:)
এর বিপরীত।পূর্বশর্ত
সমস্ত টেনসরের একই আকৃতি থাকতে হবে।
পূর্বশর্ত
axis
অবশ্যই[-rank, rank)
রেঞ্জের মধ্যে থাকতে হবে, যেখানেrank
হল প্রদত্ত টেনসরের র্যাঙ্ক।ঘোষণা
@differentiable public init(stacking tensors: [Tensor], alongAxis axis: Int = 0)
পরামিতি
tensors
স্ট্যাক করার জন্য টেনসর।
axis
ডাইমেনশন যা বরাবর স্ট্যাক করতে হবে। নেতিবাচক মান চারপাশে মোড়ানো.
ফেরত মূল্য
স্তুপীকৃত টেনসর।
- যদি
axis
মাত্রা বরাবরtensors
সংযুক্ত করে।প্রদত্ত যে
tensors[i].shape = [D0, D1, ... Daxis(i), ...Dn]
, তাহলে সংযুক্ত ফলাফলের আকৃতি আছে[D0, D1, ... Raxis, ...Dn]
, যেখানেRaxis = sum(Daxis(i))
। অর্থাৎ, ইনপুট টেনসর থেকে ডেটাaxis
মাত্রা বরাবর যুক্ত হয়।উদাহরণ স্বরূপ:
// t1 is [[1, 2, 3], [4, 5, 6]] // t2 is [[7, 8, 9], [10, 11, 12]] Tensor(concatenating: [t1, t2]) // is [[1, 2, 3], [4, 5, 6], [7, 8, 9], [10, 11, 12]] Tensor(concatenating: [t1, t2], alongAxis: 1) // is [[1, 2, 3, 7, 8, 9], [4, 5, 6, 10, 11, 12]] // t3 has shape [2, 3] // t4 has shape [2, 3] Tensor(concatenating: [t3, t4]) // has shape [4, 3] Tensor(concatenating: [t3, t4], alongAxis: 1) // has shape [2, 6]
বিঃদ্রঃ
আপনি যদি একটি নতুন অক্ষ বরাবর সংযুক্ত হন তাহলে
Tensor.init(stacking:alongAxis:)
ব্যবহার করার কথা বিবেচনা করুন।পূর্বশর্ত
সমস্ত টেনসরের একই র্যাঙ্ক থাকতে হবে এবং
axis
ব্যতীত সমস্ত মাত্রা সমান হতে হবে।পূর্বশর্ত
axis
অবশ্যই[-rank, rank)
রেঞ্জের মধ্যে থাকতে হবে, যেখানেrank
হল প্রদত্ত টেনসরের র্যাঙ্ক।ঘোষণা
@differentiable public init(concatenating tensors: [Tensor], alongAxis axis: Int = 0)
পরামিতি
tensors
একত্রিত করার জন্য টেনসর।
axis
মাত্রা যার সাথে একত্রিত করতে হবে। নেতিবাচক মান চারপাশে মোড়ানো.
ফেরত মূল্য
সংযুক্ত টেনসর।
এই টেনসরের উপাদানগুলিকে
other
লেনের সাথে প্রতিস্থাপন করে যেখানেmask
true
।পূর্বশর্ত
self
এবংother
একই আকৃতি থাকতে হবে। যদিself
এবংother
স্কেলার হয়, তাহলেmask
স্কেলার হতে হবে। যদিself
এবংother
র্যাঙ্ক1
এর থেকে বেশি বা সমান হয়, তাহলেmask
অবশ্যইself
মতো একই আকার থাকতে হবে বা 1-ডিTensor
হতে হবে যেমনmask.scalarCount == self.shape[0]
।ঘোষণা
@differentiable(wrt: (self, other) ) public func replacing(with other: Tensor, where mask: Tensor<Bool>) -> Tensor
প্রকৃত স্কেলার টাইপ নির্ভুলতা হ্রাস করা হলে সত্য দেখায়।
বর্তমানে, হ্রাসকৃত নির্ভুল শারীরিক স্কেলারের মধ্যে শুধুমাত্র
BFloat16
অন্তর্ভুক্ত রয়েছে।ঘোষণা
public var isReducedPrecision: Bool { get }
প্রদত্ত টেনসরের মতো একই ডিভাইস এবং নির্ভুলতা সহ একটি টেনসরে একটি স্কেলার প্রচার করে।
ঘোষণা
@differentiable public init(_ value: Scalar, deviceAndPrecisionLike tensor: Tensor)
BFloat16
ফিজিক্যাল স্কেলার টাইপে রূপান্তরিতself
এর একটি কপি ফেরত দেয়।ঘোষণা
public var toReducedPrecision: `Self` { get }
Scalar
ভৌত স্কেলার প্রকারে রূপান্তরিতself
এর একটি অনুলিপি প্রদান করে।ঘোষণা
public var toFullPrecision: `Self` { get }
Tensor
মাত্রার সংখ্যা।ঘোষণা
public var rank: Int { get }
Tensor
আকৃতি।ঘোষণা
public var shape: TensorShape { get }
Tensor
স্কেলারের সংখ্যা।ঘোষণা
public var scalarCount: Int { get }
টেনসরের র্যাঙ্ক,
Tensor<Int32>
হিসাবে উপস্থাপিত।ঘোষণা
public var rankTensor: Tensor<Int32> { get }
টেনসরের মাত্রা,
Tensor<Int32>
হিসাবে উপস্থাপিত।ঘোষণা
public var shapeTensor: Tensor<Int32> { get }
টেনসরে স্কেলারের সংখ্যা,
Tensor<Int32>
হিসাবে উপস্থাপিত।ঘোষণা
public var scalarCountTensor: Tensor<Int32> { get }
rank
0 এর সমান হলেtrue
এবং অন্যথায়false
প্রদান করে।ঘোষণা
public var isScalar: Bool { get }
rank
0 এর সমান এবং অন্যথায়nil
হলে একক স্কেলার উপাদান প্রদান করে।ঘোষণা
public var scalar: Scalar? { get }
স্কেলারে পুনরায় আকার দিন।
পূর্বশর্ত
টেনসরের ঠিক একটি স্কেলার আছে।ঘোষণা
@differentiable public func scalarized() -> Scalar
ঘোষণা
public var array: ShapedArray<Scalar> { get }
ঘোষণা
@differentiable public var scalars: [Scalar] { get }
একটি স্কেলার মান থেকে একটি 0-D টেনসর তৈরি করে।
ঘোষণা
@differentiable public init(_ value: Scalar, on device: Device = .default)
স্কেলার থেকে একটি 1D টেনসর তৈরি করে।
ঘোষণা
@differentiable public init(_ scalars: [Scalar], on device: Device = .default)
স্কেলার থেকে একটি 1D টেনসর তৈরি করে।
ঘোষণা
public init<C: Collection>( _ vector: C, on device: Device = .default ) where C.Element == Scalar
সারি-প্রধান ক্রমে নির্দিষ্ট আকৃতি এবং সংলগ্ন স্কেলার সহ একটি টেনসর তৈরি করে।
পূর্বশর্ত
আকৃতির মাত্রার গুণফলকে স্কেলার সংখ্যার সমান হতে হবে।ঘোষণা
@differentiable public init(shape: TensorShape, scalars: [Scalar], on device: Device = .default)
পরামিতি
shape
টেনসরের আকৃতি।
scalars
টেনসরের স্কেলার বিষয়বস্তু।
সারি-প্রধান ক্রমে নির্দিষ্ট আকৃতি এবং সংলগ্ন স্কেলার সহ একটি টেনসর তৈরি করে।
পূর্বশর্ত
আকৃতির মাত্রার গুণফলকে স্কেলার সংখ্যার সমান হতে হবে।ঘোষণা
public init( shape: TensorShape, scalars: UnsafeBufferPointer<Scalar>, on device: Device = .default )
পরামিতি
shape
টেনসরের আকৃতি।
scalars
টেনসরের স্কেলার বিষয়বস্তু।
সারি-প্রধান ক্রমে নির্দিষ্ট আকৃতি এবং সংলগ্ন স্কেলার সহ একটি টেনসর তৈরি করে।
পূর্বশর্ত
আকৃতির মাত্রার গুণফলকে স্কেলার সংখ্যার সমান হতে হবে।সারি-প্রধান ক্রমে নির্দিষ্ট আকৃতি এবং সংলগ্ন স্কেলার সহ একটি টেনসর তৈরি করে।
পূর্বশর্ত
আকৃতির মাত্রার গুণফলকে স্কেলার সংখ্যার সমান হতে হবে।ঘোষণা
public init<C: Collection>( shape: TensorShape, scalars: C, on device: Device = .default ) where C.Element == Scalar
পরামিতি
shape
টেনসরের আকৃতি।
scalars
টেনসরের স্কেলার বিষয়বস্তু।
একটি অ্যারের আক্ষরিক উপাদানের ধরন।
ঘোষণা
public typealias ArrayLiteralElement = _TensorElementLiteral<Scalar>
প্রদত্ত উপাদানগুলির সাথে প্রাথমিক একটি টেনসর তৈরি করে।
ঘোষণা
public init(arrayLiteral elements: _TensorElementLiteral<Scalar>...)
টেনসরের একটি পাঠ্য উপস্থাপনা।
বিঃদ্রঃ
সমস্ত স্কেলার দেখানো একটি অ-সুন্দর-মুদ্রিত বিবরণের জন্যfullDescription
ব্যবহার করুন।ঘোষণা
public var description: String { get }
টেনসরের একটি পাঠ্য উপস্থাপনা।
summarize
সত্য হলে এবং উপাদানের সংখ্যাedgeElementCount
দ্বিগুণ বেশি হলে একটি সংক্ষিপ্ত বিবরণ প্রদান করে।ঘোষণা
public func description( lineWidth: Int = 80, edgeElementCount: Int = 3, summarizing: Bool = false ) -> String
পরামিতি
lineWidth
প্রিন্ট করার জন্য সর্বোচ্চ লাইন প্রস্থ। প্রতি লাইনে প্রিন্ট করার জন্য স্কেলারের সংখ্যা নির্ধারণ করতে ব্যবহৃত হয়।
edgeElementCount
উপবৃত্ত (
...
) এর মাধ্যমে সংক্ষিপ্তকরণের আগে এবং পরে প্রিন্ট করার জন্য সর্বাধিক সংখ্যক উপাদান।summarizing
সত্য হলে, উপাদানের সংখ্যা দ্বিগুণ
edgeElementCount
ছাড়িয়ে গেলে বিবরণ সংক্ষিপ্ত করুন।টেনসরের একটি সম্পূর্ণ, অ-সুন্দর-মুদ্রিত পাঠ্য উপস্থাপনা, যা সমস্ত স্কেলার দেখাচ্ছে।
ঘোষণা
public var fullDescription: String { get }
ঘোষণা
public var playgroundDescription: Any { get }
ঘোষণা
public var customMirror: Mirror { get }
এই টেনসর বর্ণনাকারী টীকা।
ঘোষণা
public var annotations: String { get }
টীকাগুলির জন্য একটি উপনাম৷
ঘোষণা
public var summary: String { get }
ঘোষণা
public init(_owning tensorHandles: UnsafePointer<CTensorHandle>?)
ঘোষণা
public init<C: RandomAccessCollection>( _handles: C ) where C.Element: _AnyTensorHandle
ঘোষণা
public init(_ array: ShapedArray<Scalar>, on device: Device = .default)
ঘোষণা
init(_xla: XLATensor)
ঘোষণা
init(_xlaHandle: UnsafeMutablePointer<OpaqueXLATensor>)
ঘোষণা
var xlaHandle: UnsafeMutablePointer<OpaqueXLATensor> { get }
ঘোষণা
var xlaTensor: XLATensor { get }
ঘোষণা
@differentiable(wrt: self) public func unbroadcasted(toShape otherShape: Tensor<Int32>) -> Tensor
ঘোষণা
@differentiable(wrt: self) public func unbroadcasted<OtherScalar>(like other: Tensor<OtherScalar>) -> Tensor where OtherScalar : TensorFlowScalar
ঘোষণা
@differentiable(wrt: self) public func unbroadcasted(to shape: TensorShape) -> Tensor
একটি মোড যা নির্দেশ করে কিভাবে একটি টেনসর প্যাড করা হয়।
ঘোষণা
public enum PaddingMode
নির্দিষ্ট প্যাডিং মাপ অনুযায়ী ধ্রুবক সহ প্যাড করা একটি টেনসর প্রদান করে।
ঘোষণা
@differentiable(wrt: self) public func padded(forSizes sizes: [(before: Int, after: Int)], with value: Scalar = 0) -> Tensor
নির্দিষ্ট প্যাডিং মাপ এবং মোড অনুযায়ী একটি প্যাডেড টেনসর প্রদান করে।
ঘোষণা
@differentiable(wrt: self) public func padded(forSizes sizes: [(before: Int, after: Int)], mode: PaddingMode) -> Tensor
lhs < rhs
উপাদান-ভিত্তিক গণনা করে বুলিয়ান স্কেলারের একটি টেনসর প্রদান করে।ঘোষণা
public static func .< (lhs: Tensor, rhs: Tensor) -> Tensor<Bool>
lhs <= rhs
উপাদান-ভিত্তিক গণনা করে বুলিয়ান স্কেলারের একটি টেনসর প্রদান করে।ঘোষণা
public static func .<= (lhs: Tensor, rhs: Tensor) -> Tensor<Bool>
lhs > rhs
উপাদান-ভিত্তিক গণনা করে বুলিয়ান স্কেলারের একটি টেনসর প্রদান করে।ঘোষণা
public static func .> (lhs: Tensor, rhs: Tensor) -> Tensor<Bool>
lhs >= rhs
উপাদান-ভিত্তিক গণনা করে বুলিয়ান স্কেলারের একটি টেনসর প্রদান করে।ঘোষণা
public static func .>= (lhs: Tensor, rhs: Tensor) -> Tensor<Bool>
lhs < rhs
উপাদান-ভিত্তিক গণনা করে বুলিয়ান স্কেলারের একটি টেনসর প্রদান করে।বিঃদ্রঃ
.<
সম্প্রচার সমর্থন করে।ঘোষণা
public static func .< (lhs: Scalar, rhs: Tensor) -> Tensor<Bool>
lhs <= rhs
উপাদান-ভিত্তিক গণনা করে বুলিয়ান স্কেলারের একটি টেনসর প্রদান করে।বিঃদ্রঃ
.<=
সম্প্রচার সমর্থন করে।ঘোষণা
public static func .<= (lhs: Scalar, rhs: Tensor) -> Tensor<Bool>
lhs > rhs
উপাদান-ভিত্তিক গণনা করে বুলিয়ান স্কেলারের একটি টেনসর প্রদান করে।বিঃদ্রঃ
.>
সম্প্রচার সমর্থন করে।ঘোষণা
public static func .> (lhs: Scalar, rhs: Tensor) -> Tensor<Bool>
lhs >= rhs
উপাদান-ভিত্তিক গণনা করে বুলিয়ান স্কেলারের একটি টেনসর প্রদান করে।বিঃদ্রঃ
.>=
সম্প্রচার সমর্থন করে।ঘোষণা
public static func .>= (lhs: Scalar, rhs: Tensor) -> Tensor<Bool>
lhs < rhs
উপাদান-ভিত্তিক গণনা করে বুলিয়ান স্কেলারের একটি টেনসর প্রদান করে।বিঃদ্রঃ
.<
সম্প্রচার সমর্থন করে।ঘোষণা
public static func .< (lhs: Tensor, rhs: Scalar) -> Tensor<Bool>
lhs <= rhs
উপাদান-ভিত্তিক গণনা করে বুলিয়ান স্কেলারের একটি টেনসর প্রদান করে।বিঃদ্রঃ
.<=
সম্প্রচার সমর্থন করে।ঘোষণা
public static func .<= (lhs: Tensor, rhs: Scalar) -> Tensor<Bool>
lhs > rhs
উপাদান-ভিত্তিক গণনা করে বুলিয়ান স্কেলারের একটি টেনসর প্রদান করে।বিঃদ্রঃ
.>
সম্প্রচার সমর্থন করে।ঘোষণা
public static func .> (lhs: Tensor, rhs: Scalar) -> Tensor<Bool>
lhs >= rhs
উপাদান-ভিত্তিক গণনা করে বুলিয়ান স্কেলারের একটি টেনসর প্রদান করে।বিঃদ্রঃ
.>=
সম্প্রচার সমর্থন করে।ঘোষণা
public static func .>= (lhs: Tensor, rhs: Scalar) -> Tensor<Bool>
lhs == rhs
উপাদান-ভিত্তিক গণনা করে বুলিয়ান স্কেলারের একটি টেনসর প্রদান করে।বিঃদ্রঃ
.==
সম্প্রচার সমর্থন করে।ঘোষণা
public static func .== (lhs: Tensor, rhs: Tensor) -> Tensor<Bool>
lhs != rhs
উপাদান-ভিত্তিক গণনা করে বুলিয়ান স্কেলারের একটি টেনসর প্রদান করে।বিঃদ্রঃ
.!=
সম্প্রচার সমর্থন করে।ঘোষণা
public static func .!= (lhs: Tensor, rhs: Tensor) -> Tensor<Bool>
lhs == rhs
উপাদান-ভিত্তিক গণনা করে বুলিয়ান স্কেলারের একটি টেনসর প্রদান করে।বিঃদ্রঃ
.==
সম্প্রচার সমর্থন করে।ঘোষণা
public static func .== (lhs: Scalar, rhs: Tensor) -> Tensor<Bool>
lhs != rhs
উপাদান-ভিত্তিক গণনা করে বুলিয়ান স্কেলারের একটি টেনসর প্রদান করে।বিঃদ্রঃ
.!=
সম্প্রচার সমর্থন করে।ঘোষণা
public static func .!= (lhs: Scalar, rhs: Tensor) -> Tensor<Bool>
lhs == rhs
উপাদান-ভিত্তিক গণনা করে বুলিয়ান স্কেলারের একটি টেনসর প্রদান করে।বিঃদ্রঃ
.==
সম্প্রচার সমর্থন করে।ঘোষণা
public static func .== (lhs: Tensor, rhs: Scalar) -> Tensor<Bool>
lhs != rhs
উপাদান-ভিত্তিক গণনা করে বুলিয়ান স্কেলারের একটি টেনসর প্রদান করে।বিঃদ্রঃ
.!=
সম্প্রচার সমর্থন করে।ঘোষণা
public static func .!= (lhs: Tensor, rhs: Scalar) -> Tensor<Bool>
বুলিয়ান মানগুলির একটি টেনসর প্রদান করে যা নির্দেশ করে যে
self
এর উপাদানগুলিother
উপাদানগুলির প্রায় সমান কিনা৷পূর্বশর্ত
self
এবংother
একই আকৃতি হতে হবে.ঘোষণা
public func elementsAlmostEqual( _ other: Tensor, tolerance: Scalar = Scalar.ulpOfOne.squareRoot() ) -> Tensor<Bool>
self
সমস্ত উপাদানother
উপাদানগুলির সাথে প্রায় সমান হলেtrue
ফেরত দেয়৷পূর্বশর্ত
self
এবংother
একই আকৃতি হতে হবে.ঘোষণা
public func isAlmostEqual( to other: Tensor, tolerance: Scalar = Scalar.ulpOfOne.squareRoot() ) -> Bool
এই টেনসরের জন্য একটি ক্রস রেপ্লিকা যোগফল চালায়। একই ক্রস রেপ্লিকা যোগফল যোগফলের অংশগ্রহণকারী অন্যান্য ডিভাইসগুলির প্রতিটিতে ঘটতে হবে।
ঘোষণা
public mutating mutating func crossReplicaSum(_ scale: Double)
ঘোষণা
@derivative init(repeating: shape)
একটি
Bool
টেনসর থেকে একটি উপাদান-ভিত্তিক টাইপ রূপান্তর সম্পাদন করুন।ঘোষণা
public init(_ other: Tensor<Bool>)
অন্য
Tensor
থেকে একটি উপাদান-ভিত্তিক রূপান্তর সম্পাদন করুন।ঘোষণা
@differentiable public init<OtherScalar>(_ other: Tensor<OtherScalar>) where OtherScalar : Numeric, OtherScalar : TensorFlowScalar
ঘোষণা
@derivative init(_: <<error type>>)
ঘোষণা
@derivative init(stacking: alongAxis)
ঘোষণা
@derivative init(concatenating: alongAxis)
শূন্যে সেট করা সমস্ত স্কেলার সহ একটি টেনসর তৈরি করে।
ঘোষণা
public init(zeros shape: TensorShape, on device: Device = .default)
পরামিতি
shape
টেনসরের আকৃতি।
একটিতে সেট করা সমস্ত স্কেলার সহ একটি টেনসর তৈরি করে।
ঘোষণা
public init(ones shape: TensorShape, on device: Device = .default)
পরামিতি
shape
টেনসরের আকৃতি।
শূন্যে সেট করা সমস্ত স্কেলার সহ একটি টেনসর তৈরি করে যার আকৃতি এবং ধরন প্রদত্ত টেনসরের মতোই রয়েছে৷
ঘোষণা
public init(zerosLike other: Tensor)
পরামিতি
other
টেনসর যার আকার এবং ডেটা টাইপ ব্যবহার করতে হবে।
প্রদত্ত টেনসরের মতো একই আকৃতি এবং ধরন আছে এমন সমস্ত স্কেলার সহ একটি টেনসর তৈরি করে৷
ঘোষণা
public init(onesLike other: Tensor)
পরামিতি
other
টেনসর যার আকার এবং ডেটা টাইপ ব্যবহার করতে হবে।
একটি 1-D টেনসর তৈরি করে যা একটি প্রারম্ভিক মান থেকে একটি ক্রম উপস্থাপন করে, কিন্তু একটি শেষ মান অন্তর্ভুক্ত করে না, নির্দিষ্ট পরিমাণে ধাপে ধাপে।
ঘোষণা
public init( rangeFrom start: Scalar, to end: Scalar, stride: Scalar, on device: Device = .default )
পরামিতি
start
ক্রমটির জন্য ব্যবহার করা শুরুর মান। যদি ক্রমটিতে কোনো মান থাকে তবে প্রথমটি হল
start
।end
ক্রম সীমাবদ্ধ করার জন্য একটি শেষ মান।
end
কখনই ফলাফলের ক্রমটির একটি উপাদান নয়।stride
প্রতিটি পুনরাবৃত্তির সাথে ধাপে ধাপে পরিমাণ।
stride
ইতিবাচক হতে হবে।একটি 1-D টেনসর তৈরি করে যা একটি প্রারম্ভিক মান থেকে একটি ক্রম উপস্থাপন করে, কিন্তু একটি শেষ মান অন্তর্ভুক্ত করে না, নির্দিষ্ট পরিমাণে ধাপে ধাপে।
ঘোষণা
public init(rangeFrom start: Tensor<Scalar>, to end: Tensor<Scalar>, stride: Tensor<Scalar>)
পরামিতি
start
ক্রমটির জন্য ব্যবহার করা শুরুর মান। যদি ক্রমটিতে কোনো মান থাকে তবে প্রথমটি হল
start
।end
ক্রম সীমাবদ্ধ করার জন্য একটি শেষ মান।
end
কখনই ফলাফলের ক্রমটির একটি উপাদান নয়।stride
প্রতিটি পুনরাবৃত্তির সাথে ধাপে ধাপে পরিমাণ।
stride
ইতিবাচক হতে হবে।প্রদত্ত সূচকে একটি এক-হট টেনসর তৈরি করে।
indices
দ্বারা উপস্থাপিত অবস্থানগুলি মানonValue
(1
ডিফল্টভাবে) নেয়, অন্য সমস্ত অবস্থানগুলিoffValue
( ডিফল্টরূপে0
) মান নেয়। যদি ইনপুটindices
র্যাঙ্কn
হয়, নতুন টেনসরের র্যাঙ্কn+1
হবে। নতুন অক্ষটি মাত্রাaxis
তৈরি করা হয় (ডিফল্টরূপে, নতুন অক্ষ শেষে যুক্ত করা হয়)।indices
একটি স্কেলার হলে, নতুন টেনসরের আকৃতি হবে দৈর্ঘ্যেরdepth
একটি ভেক্টর।যদি
indices
দৈর্ঘ্যেরfeatures
একটি ভেক্টর হয় তবে আউটপুট আকার হবে: বৈশিষ্ট্য x গভীরতা, যদি অক্ষ == -1 গভীরতা x বৈশিষ্ট্য, যদি অক্ষ == 0যদি
indices
আকৃতি[batch, features]
সহ একটি ম্যাট্রিক্স (ব্যাচ) হয় তবে আউটপুট আকার হবে: ব্যাচ x বৈশিষ্ট্য x গভীরতা, যদি অক্ষ == -1 ব্যাচ x গভীরতা x বৈশিষ্ট্য, যদি অক্ষ == 1 গভীরতা x ব্যাচ x বৈশিষ্ট্য , অক্ষ == 0 হলেঘোষণা
public init( oneHotAtIndices indices: Tensor<Int32>, depth: Int, onValue: Scalar = 1, offValue: Scalar = 0, axis: Int = -1 )
পরামিতি
indices
সূচকের একটি
Tensor
।depth
একটি স্কেলার একটি গরম মাত্রার গভীরতা নির্ধারণ করে।
onValue
একটি স্কেলার সূচকে কিছু
indices
দ্বারা উল্লেখিত অবস্থানের মান নির্ধারণ করে।offValue
একটি স্কেলার একটি অবস্থানে মান নির্ধারণ করে যা
indices
কোনো সূচক দ্বারা উল্লেখ করা হয় না।axis
অক্ষ পূরণ করতে. ডিফল্ট হল
-1
, একটি নতুন অভ্যন্তরীণ-সবচেয়ে অক্ষ।
একটি 1-D টেনসর তৈরি করে যা একটি প্রারম্ভিক মান থেকে একটি ক্রম প্রতিনিধিত্ব করে, একটি শেষ মান পর্যন্ত এবং সমেত, নির্দিষ্ট করা মানগুলির সংখ্যা তৈরি করতে সমানভাবে ফাঁক করে৷
ঘোষণা
public init( linearSpaceFrom start: Scalar, to end: Scalar, count: Int, on device: Device = .default )
পরামিতি
start
ক্রমটির জন্য ব্যবহার করা শুরুর মান। যদি ক্রমটিতে কোনো মান থাকে তবে প্রথমটি হল
start
।end
ক্রম সীমাবদ্ধ করার জন্য একটি শেষ মান।
end
হল ফলাফলের ক্রমটির শেষ উপাদান।count
ফলস্বরূপ অনুক্রমের মানের সংখ্যা।
count
ইতিবাচক হতে হবে।একটি 1-D টেনসর তৈরি করে যা একটি প্রারম্ভিক মান থেকে একটি ক্রম প্রতিনিধিত্ব করে, একটি শেষ মান পর্যন্ত এবং সমেত, নির্দিষ্ট করা মানগুলির সংখ্যা তৈরি করতে সমানভাবে ফাঁক করে৷
পূর্বশর্ত
start
,to
, এবংcount
একটি একক স্কেলার মান ধারণকারী টেনসর হতে হবে।ঘোষণা
public init(linearSpaceFrom start: Tensor<Scalar>, to end: Tensor<Scalar>, count: Tensor<Int32>)
পরামিতি
start
ক্রমটির জন্য ব্যবহার করা শুরুর মান। যদি ক্রমটিতে কোনো মান থাকে তবে প্রথমটি হল
start
।end
ক্রম সীমাবদ্ধ করার জন্য একটি শেষ মান।
end
হল ফলাফলের ক্রমটির শেষ উপাদান।count
ফলস্বরূপ অনুক্রমের মানের সংখ্যা।
count
ইতিবাচক হতে হবে।
lowerBound
এবংupperBound
মধ্যে একটি অভিন্ন বন্টন থেকে এলোমেলোভাবে স্কেলার মানগুলিকে নমুনা করে নির্দিষ্ট আকৃতি সহ একটি টেনসর তৈরি করে।ঘোষণা
public init( randomUniform shape: TensorShape, lowerBound: Tensor<Scalar>? = nil, upperBound: Tensor<Scalar>? = nil, seed: TensorFlowSeed = Context.local.randomSeed, on device: Device = .default )
পরামিতি
shape
টেনসরের মাত্রা।
lowerBound
বিতরণের নিম্ন সীমানা।
upperBound
বিতরণের উপরের সীমানা।
seed
বীজের মান।
lowerBound
এবংupperBound
মধ্যে একটি অভিন্ন বন্টন থেকে এলোমেলোভাবে স্কেলার মানগুলিকে নমুনা করে নির্দিষ্ট আকৃতি সহ একটি টেনসর তৈরি করে।ঘোষণা
public init( randomUniform shape: TensorShape, lowerBound: Tensor<Scalar>? = nil, upperBound: Tensor<Scalar>? = nil, seed: TensorFlowSeed = Context.local.randomSeed, on device: Device = .default )
পরামিতি
shape
টেনসরের মাত্রা।
lowerBound
বিতরণের নিম্ন সীমানা।
upperBound
বিতরণের উপরের সীমানা।
seed
বীজের মান।
একটি সাধারণ বন্টন থেকে এলোমেলোভাবে স্কেলার মান নমুনা করে নির্দিষ্ট আকৃতি সহ একটি টেনসর তৈরি করে।
ঘোষণা
public init( randomNormal shape: TensorShape, mean: Tensor<Scalar>? = nil, standardDeviation: Tensor<Scalar>? = nil, seed: TensorFlowSeed = Context.local.randomSeed, on device: Device = .default )
পরামিতি
shape
টেনসরের মাত্রা।
mean
বিতরণের গড়।
standardDeviation
বিতরণের মানক বিচ্যুতি।
seed
বীজের মান।
নির্দিষ্ট আকৃতি সহ একটি টেনসর তৈরি করে, এলোমেলোভাবে একটি ছাঁটাই করা সাধারণ বন্টন থেকে স্কেলার মানগুলির নমুনা।
ঘোষণা
public init( randomTruncatedNormal shape: TensorShape, mean: Tensor<Scalar>? = nil, standardDeviation: Tensor<Scalar>? = nil, seed: TensorFlowSeed = Context.local.randomSeed, on device: Device = .default )
পরামিতি
shape
টেনসরের মাত্রা।
mean
বিতরণের গড়।
standardDeviation
বিতরণের মানক বিচ্যুতি।
seed
বীজের মান।
একটি শ্রেণীবদ্ধ বিতরণ থেকে নমুনা অঙ্কন করে একটি টেনসর তৈরি করে।
ঘোষণা
public init<T: TensorFlowFloatingPoint>( randomCategorialLogits: Tensor<T>, sampleCount: Int32, seed: TensorFlowSeed = Context.local.randomSeed )
পরামিতি
randomCategorialLogits
আকৃতি সহ 2-ডি টেনসর
[batchSize, classCount]
। প্রতিটি স্লাইস[i, :]
সমস্ত শ্রেণীর জন্য অস্বাভাবিক লগ সম্ভাবনার প্রতিনিধিত্ব করে।sampleCount
0-ডি. প্রতিটি সারির স্লাইসের জন্য স্বতন্ত্র নমুনার সংখ্যা।
seed
বীজের মান।
ফেরত মূল্য
আকৃতি সহ 2-ডি টেনসর
[batchSize, sampleCount]
। প্রতিটি স্লাইস[i, :]
রেঞ্জ সহ আঁকা ক্লাস লেবেল রয়েছে[0, classCount)
।
গ্লোরোট (জেভিয়ার) ইউনিফর্ম ইনিশিয়ালাইজেশন সম্পাদন করে নির্দিষ্ট আকৃতি সহ একটি টেনসর তৈরি করে।
এটি ডিফল্ট র্যান্ডম নম্বর জেনারেটর দ্বারা উত্পন্ন
-limit
এবংlimit
মধ্যে একটি অভিন্ন বন্টন থেকে এলোমেলো নমুনাগুলি আঁকে, যেখানেlimit
হলsqrt(6 / (fanIn + fanOut))
এবংfanIn
/fanOut
গ্রহীতা দ্বারা গুণিত ইনপুট এবং আউটপুট বৈশিষ্ট্যের সংখ্যা উপস্থাপন করে মাঠ আকৃতি.রেফারেন্স: "গভীর ফিডফরোয়ার্ড নিউরাল নেটওয়ার্ক প্রশিক্ষণের অসুবিধা বোঝা"
ঘোষণা
public init( glorotUniform shape: TensorShape, seed: TensorFlowSeed = Context.local.randomSeed, on device: Device = .default )
পরামিতি
shape
টেনসরের মাত্রা।
seed
বীজের মান।
Glorot (Xavier) স্বাভাবিক ইনিশিয়ালাইজেশন সম্পাদন করে নির্দিষ্ট আকৃতি সহ একটি টেনসর তৈরি করে।
এটি ডিফল্ট র্যান্ডম নম্বর জেনারেটর দ্বারা উত্পন্ন স্ট্যান্ডার্ড বিচ্যুতি
sqrt(2 / (fanIn + fanOut))
সহ0
-কে কেন্দ্র করে একটি ছেঁটে যাওয়া স্বাভাবিক বন্টন থেকে এলোমেলো নমুনাগুলি আঁকে, যেখানেfanIn
/fanOut
গ্রহনযোগ্য ক্ষেত্র দ্বারা গুণিত ইনপুট এবং আউটপুট বৈশিষ্ট্যের সংখ্যা উপস্থাপন করে। আকাররেফারেন্স: "গভীর ফিডফরোয়ার্ড নিউরাল নেটওয়ার্ক প্রশিক্ষণের অসুবিধা বোঝা"
ঘোষণা
public init( glorotNormal shape: TensorShape, seed: TensorFlowSeed = Context.local.randomSeed, on device: Device = .default )
পরামিতি
shape
টেনসরের মাত্রা।
seed
বীজের মান।
He (Kaiming) ইউনিফর্ম ইনিশিয়ালাইজেশন করে নির্দিষ্ট আকৃতির সাথে একটি টেনসর তৈরি করে।
এটি ডিফল্ট র্যান্ডম নম্বর জেনারেটর দ্বারা উত্পন্ন
-limit
এবংlimit
মধ্যে একটি অভিন্ন বন্টন থেকে এলোমেলো নমুনাগুলি আঁকে, যেখানেlimit
হলsqrt(6 / fanIn)
এবংfanIn
গ্রহণযোগ্য ক্ষেত্রের আকার দ্বারা গুণিত ইনপুট বৈশিষ্ট্যের সংখ্যা উপস্থাপন করে৷রেফারেন্স: "রেকটিফায়ারের গভীরে প্রবেশ করা: ইমেজনেট শ্রেণীবিভাগে মানব-স্তরের পারফরম্যান্সকে ছাড়িয়ে যাওয়া"
ঘোষণা
public init( heUniform shape: TensorShape, seed: TensorFlowSeed = Context.local.randomSeed, on device: Device = .default )
পরামিতি
shape
টেনসরের মাত্রা।
seed
বীজের মান।
He (Kaiming) স্বাভাবিক সূচনা সম্পাদন করে নির্দিষ্ট আকৃতির সাথে একটি টেনসর তৈরি করে।
এটি ডিফল্ট র্যান্ডম নম্বর জেনারেটর দ্বারা উত্পন্ন স্ট্যান্ডার্ড বিচ্যুতি
sqrt(2 / fanIn))
সহ0
কে কেন্দ্র করে একটি ছেঁটে যাওয়া স্বাভাবিক বিতরণ থেকে এলোমেলো নমুনাগুলি আঁকে, যেখানেfanIn
গ্রহণযোগ্য ক্ষেত্রের আকার দ্বারা গুণিত ইনপুট বৈশিষ্ট্যের সংখ্যাকে প্রতিনিধিত্ব করে।রেফারেন্স: "রেকটিফায়ারের গভীরে প্রবেশ করা: ইমেজনেট শ্রেণীবিভাগে মানব-স্তরের পারফরম্যান্সকে ছাড়িয়ে যাওয়া"
ঘোষণা
public init( heNormal shape: TensorShape, seed: TensorFlowSeed = Context.local.randomSeed, on device: Device = .default )
পরামিতি
shape
টেনসরের মাত্রা।
seed
বীজের মান।
LeCun ইউনিফর্ম ইনিশিয়ালাইজেশন সম্পাদন করে নির্দিষ্ট আকৃতির সাথে একটি টেনসর তৈরি করে।
এটি ডিফল্ট র্যান্ডম নম্বর জেনারেটর দ্বারা উত্পন্ন
-limit
এবংlimit
মধ্যে একটি অভিন্ন বন্টন থেকে এলোমেলো নমুনাগুলি আঁকে, যেখানেlimit
হলsqrt(3 / fanIn)
এবংfanIn
গ্রহণযোগ্য ক্ষেত্রের আকার দ্বারা গুণিত ইনপুট বৈশিষ্ট্যগুলির সংখ্যাকে প্রতিনিধিত্ব করে৷রেফারেন্স: "দক্ষ ব্যাকপ্রপ"
ঘোষণা
public init( leCunUniform shape: TensorShape, seed: TensorFlowSeed = Context.local.randomSeed, on device: Device = .default )
পরামিতি
shape
টেনসরের মাত্রা।
seed
বীজের মান।
LeCun স্বাভাবিক ইনিশিয়ালাইজেশন করে নির্দিষ্ট আকৃতি সহ একটি টেনসর তৈরি করে।
এটি ডিফল্ট র্যান্ডম নম্বর জেনারেটর দ্বারা উত্পন্ন স্ট্যান্ডার্ড বিচ্যুতি
sqrt(1 / fanIn)
সহ0
কে কেন্দ্র করে একটি ছেঁটে যাওয়া স্বাভাবিক বিতরণ থেকে এলোমেলো নমুনাগুলি আঁকে, যেখানেfanIn
গ্রহণযোগ্য ক্ষেত্রের আকার দ্বারা গুণিত ইনপুট বৈশিষ্ট্যগুলির সংখ্যাকে প্রতিনিধিত্ব করে৷রেফারেন্স: "দক্ষ ব্যাকপ্রপ"
ঘোষণা
public init( leCunNormal shape: TensorShape, seed: TensorFlowSeed = Context.local.randomSeed, on device: Device = .default )
পরামিতি
shape
টেনসরের মাত্রা।
seed
বীজের মান।
একটি অর্থোগোনাল ম্যাট্রিক্স বা টেনসর তৈরি করে।
আরম্ভ করার জন্য টেনসরের আকৃতি যদি দ্বি-মাত্রিক হয়, তবে এটি একটি সাধারণ বন্টন থেকে আঁকা এলোমেলো সংখ্যাগুলির একটি ম্যাট্রিক্সের QR পচন থেকে প্রাপ্ত একটি অর্থোগোনাল ম্যাট্রিক্সের সাহায্যে আরম্ভ করা হয়। যদি ম্যাট্রিক্সে কলামের চেয়ে কম সারি থাকে তবে আউটপুটে অর্থোগোনাল সারি থাকবে। অন্যথায়, আউটপুটে অর্থোগোনাল কলাম থাকবে।
ইনিশিয়ালাইজ করার জন্য টেনসরের আকৃতি যদি দ্বি-মাত্রিকের বেশি হয়, তবে আকৃতির একটি ম্যাট্রিক্স
[shape[0] * ... * shape[rank - 2], shape[rank - 1]]
শুরু করা হয়। ম্যাট্রিক্স পরবর্তীতে কাঙ্খিত আকারের একটি টেনসর দিতে পুনরায় আকার দেওয়া হয়।ঘোষণা
public init( orthogonal shape: TensorShape, gain: Tensor<Scalar> = Tensor<Scalar>(1), seed: TensorFlowSeed = Context.local.randomSeed )
পরামিতি
shape
টেনসরের আকৃতি।
gain
অরথোগোনাল টেনসরে প্রয়োগ করার জন্য একটি গুণক ফ্যাক্টর।
seed
এলোমেলো সংখ্যা জেনারেটর বীজের জন্য দুটি পূর্ণসংখ্যার একটি টিপল।
একটি [ব্যাচড] টেনসরের [ব্যাচড] তির্যক অংশ প্রদান করে। আকৃতির টেনসর উদাহরণের জন্য
[..., M, N]
, আউটপুট হল আকৃতির একটি টেনসর[..., K]
, যেখানেK
সমানmin(N, M)
।উদাহরণ স্বরূপ:
// 't' is [[1, 0, 0, 0] // [0, 2, 0, 0] // [0, 0, 3, 0] // [0, 0, 0, 4]] t.diagonalPart() // [1, 2, 3, 4]
ঘোষণা
@differentiable public func diagonalPart() -> Tensor
একটি [ব্যাচড] তির্যক অ্যারে তৈরি করে। আকৃতির টেনসর উদাহরণের জন্য
[..., M]
, আউটপুট হল আকৃতির একটি টেনসর[..., M, M]
।উদাহরণ স্বরূপ:
// 't' is [1, 2, 3, 4] t.diagonal() // [[1, 0, 0, 0] // [0, 2, 0, 0] // [0, 0, 3, 0] // [0, 0, 0, 4]]
ঘোষণা
@differentiable public func diagonal() -> Tensor
নতুন তির্যক মান সহ
self
ফেরত দেয়, যেself
একটি ঐচ্ছিকভাবে ব্যাচ করা ম্যাট্রিক্স।প্রত্যাবর্তিত টেনসরের
self
মতো একই আকৃতি এবং মান রয়েছে, অন্তঃস্থ ম্যাট্রিক্সের নির্দিষ্ট কর্ণ ব্যতীত যাdiagonal
মানগুলি দ্বারা ওভাররাইট করা হয়।প্যারামিটার তির্যক: র্যাঙ্ক
rank - 1
নতুন তির্যক মানগুলিকে উপস্থাপন করে।ঘোষণা
public func withDiagonal(_ diagonal: Tensor<Scalar>) -> Tensor
ঘোষণা
@differentiable(wrt: self) public func bandPart(_ subdiagonalCount: Int, _ superdiagonalCount: Int) -> Tensor
একটি কেন্দ্রীয় ব্যান্ড সীমানা দ্বারা সংজ্ঞায়িত একটি অন্তর্নিহিত টেনসরের একটি অনুলিপি প্রদান করে৷ আউটপুটটি উদাহরণের মতো একই আকৃতির একটি টেনসর
[..., :, :]
।উদাহরণ স্বরূপ:
// 't' is [[ 0, 1, 2, 3] // [-1, 0, 1, 2] // [-2, -1, 0, 1] // [-3, -2, -1, 0]] t.bandPart(1, -1) // [[ 0, 1, 2, 3] // [-1, 0, 1, 2] // [ 0, -1, 0, 1] // [ 0, 0, -1, 0]] t.bandPart(2, 1) // [[ 0, 1, 0, 0] // [-1, 0, 1, 0] // [-2, -1, 0, 1] // [ 0, -2, -1, 0]]
ঘোষণা
@differentiable public func bandPart(subdiagonalCount: Int, superdiagonalCount: Int) -> Tensor
পরামিতি
subdiagonalCount
রাখতে হবে উপকর্ণের সংখ্যা। নেতিবাচক হলে, সম্পূর্ণ নিম্ন ত্রিভুজ রাখুন।
superdiagonalCount
সুপারডায়াগনালের সংখ্যা রাখতে হবে। নেতিবাচক হলে, পুরো উপরের ত্রিভুজটি রাখুন।
টেনসরের প্রতিটি অভ্যন্তরীণ ম্যাট্রিক্সের QR পচন দেখায়, ভিতরের অর্থোগোনাল ম্যাট্রিক্স
q
সহ একটি টেনসর এবং ভিতরের উপরের ত্রিভুজাকার ম্যাট্রিক্সr
সহ একটি টেনসর, যেমন টেনসরটিmatmul(q, r)
এর সমান।ঘোষণা
public func qrDecomposition(fullMatrices: Bool = false) -> ( q: Tensor<Scalar>, r: Tensor<Scalar> )
পরামিতি
fullMatrices
true
হলে, পূর্ণ আকারেরq
এবংr
গণনা করুন। অন্যথায় শুধুমাত্রq
এর অগ্রবর্তীmin(shape[rank - 1], shape[rank - 2])
কলামগুলি গণনা করুন।self
এর একবচন মানের পচন দেখায়, যেself
একটি ঐচ্ছিকভাবে ব্যাচ করা ম্যাট্রিক্স।ঐচ্ছিকভাবে ব্যাচ করা ম্যাট্রিক্স
self
একবচন মান পচন (SVD) হল মানs
,u
, এবংv
, যেমন:self[..., :, :] = u[..., :, :] • s[..., :, :].diagonal() • v[..., :, :].transposed()`
স্বকে
must be a tensor with shape
[…, M, N]. Let
K = min(M, N)`।পূর্বশর্ত
self
অবশ্যই আকৃতি সহ একটি টেনসর হতে হবে[..., M, N]
।ঘোষণা
public func svd(computeUV: Bool = true, fullMatrices: Bool = false) -> ( s: Tensor<Scalar>, u: Tensor<Scalar>?, v: Tensor<Scalar>? )
পরামিতি
computeUV
true
হলে, বাম এবং ডান একবচন ভেক্টর গণনা করা হয় এবং যথাক্রমেu
এবংv
হিসাবে ফেরত দেওয়া হয়।false
হলে,nil
মানগুলিu
এবংv
হিসাবে ফেরত দেওয়া হয়।fullMatrices
true
হলে,u
এবংv
যথাক্রমে[..., M, M]
এবং[..., N, N]
আকার থাকে।false
হলে,u
এবংv
যথাক্রমে[..., M, K]
এবং[..., K, N]
আকার থাকে।computeUV
মিথ্যা হলে উপেক্ষা করা হয়।ফেরত মূল্য
- s: একবচন মান, আকৃতি সহ
[..., K]
। প্রতিটি ভেক্টরের মধ্যে, একবচন মানগুলিকে নিচের ক্রমে সাজানো হয়। - u: বাম একবচন ভেক্টর।
- v: সঠিক একবচন ভেক্টর।
- s: একবচন মান, আকৃতি সহ
x
এর বর্গমূল।বাস্তব প্রকারের জন্য, যদি
x
নেতিবাচক হয় ফলাফল হল.nan
। জটিল ধরনের জন্য ঋণাত্মক বাস্তব অক্ষের উপর একটি শাখা কাটা আছে।ঘোষণা
@differentiable public static func sqrt(_ x: `Self`) -> Tensor<Scalar>
x
এর কোসাইন, রেডিয়ানে একটি কোণ হিসাবে ব্যাখ্যা করা হয়।ঘোষণা
@differentiable public static func cos(_ x: `Self`) -> Tensor<Scalar>
x
এর সাইন, রেডিয়ানে একটি কোণ হিসাবে ব্যাখ্যা করা হয়।ঘোষণা
@differentiable public static func sin(_ x: `Self`) -> Tensor<Scalar>
x
এর স্পর্শক, রেডিয়ানে একটি কোণ হিসাবে ব্যাখ্যা করা হয়।ঘোষণা
@differentiable public static func tan(_ x: `Self`) -> Tensor<Scalar>
রেডিয়ানে
x
এর বিপরীত কোসাইন।ঘোষণা
@differentiable public static func acos(_ x: `Self`) -> Tensor<Scalar>
রেডিয়ানে
x
এর বিপরীত সাইন।ঘোষণা
@differentiable public static func asin(_ x: `Self`) -> Tensor<Scalar>
রেডিয়ানে
x
এর বিপরীত স্পর্শক।ঘোষণা
@differentiable public static func atan(_ x: `Self`) -> Tensor<Scalar>
x
এর হাইপারবোলিক কোসাইন।ঘোষণা
@differentiable public static func cosh(_ x: `Self`) -> Tensor<Scalar>
x
এর হাইপারবোলিক সাইন।ঘোষণা
@differentiable public static func sinh(_ x: `Self`) -> Tensor<Scalar>
x
এর অধিবৃত্তীয় স্পর্শক।ঘোষণা
@differentiable public static func tanh(_ x: `Self`) -> Tensor<Scalar>
x
এর বিপরীত হাইপারবোলিক কোসাইন।ঘোষণা
@differentiable public static func acosh(_ x: `Self`) -> Tensor<Scalar>
x
এর বিপরীত হাইপারবোলিক সাইন।ঘোষণা
@differentiable public static func asinh(_ x: `Self`) -> Tensor<Scalar>
x
এর বিপরীত হাইপারবোলিক ট্যানজেন্ট।ঘোষণা
@differentiable public static func atanh(_ x: `Self`) -> Tensor<Scalar>
সূচকীয় ফাংশন
x
, বাe**x
এ প্রয়োগ করা হয়।ঘোষণা
@differentiable public static func exp(_ x: `Self`) -> Tensor<Scalar>
দুটি
x
ক্ষমতায় উত্থাপিত।ঘোষণা
@differentiable public static func exp2(_ x: `Self`) -> Tensor<Scalar>
দশ শক্তি
x
এ উত্থাপিত হয়।ঘোষণা
@differentiable public static func exp10(_ x: `Self`) -> Tensor<Scalar>
exp(x) - 1
মূল্যায়ন করা হয়েছে যাতে শূন্যের কাছাকাছি নির্ভুলতা রক্ষা করা যায়।ঘোষণা
@differentiable public static func expm1(_ x: `Self`) -> Tensor<Scalar>
x
এর প্রাকৃতিক লগারিদম।ঘোষণা
@differentiable public static func log(_ x: `Self`) -> Tensor<Scalar>
x
এর বেস-টু লগারিদম।ঘোষণা
@differentiable public static func log2(_ x: `Self`) -> Tensor<Scalar>
x
এর বেস-টেন লগারিদম।ঘোষণা
@differentiable public static func log10(_ x: `Self`) -> Tensor<Scalar>
log(1 + x)
মূল্যায়ন করা হয়েছে যাতে শূন্যের কাছাকাছি নির্ভুলতা রক্ষা করা যায়।ঘোষণা
@differentiable public static func log1p(_ x: `Self`) -> Tensor<Scalar>
exp(y log(x))
মধ্যবর্তী নির্ভুলতা না হারিয়ে গণনা করা হয়েছে।বাস্তব প্রকারের জন্য,
x
ঋণাত্মক হলে ফলাফল হবে NaN, এমনকিy
একটি অবিচ্ছেদ্য মান থাকলেও। জটিল ধরণের জন্য, নেতিবাচক বাস্তব অক্ষের উপর একটি শাখা কাটা রয়েছে।ঘোষণা
@differentiable public static func pow(_ x: `Self`, _ y: `Self`) -> Tensor<Scalar>
x
n
পাওয়ারে উত্থিত।x
এরn
কপিগুলির পণ্য।ঘোষণা
@differentiable public static func pow(_ x: `Self`, _ n: Int) -> Tensor<Scalar>
x
এরn
থ্রি রুট।বাস্তব প্রকারের জন্য, যদি
x
নেতিবাচক হয় এবংn
সমান হয় তবে ফলাফলটি ন্যান। জটিল ধরণের জন্য, নেতিবাচক বাস্তব অক্ষ বরাবর একটি শাখা কাটা আছে।ঘোষণা
@differentiable public static func root(_ x: `Self`, _ n: Int) -> Tensor<Scalar>
ঘোষণা
public typealias VectorSpaceScalar = Float
ঘোষণা
public func scaled(by scale: Float) -> Tensor<Scalar>
ঘোষণা
public func adding(_ scalar: Float) -> Tensor<Scalar>
ঘোষণা
public func subtracting(_ scalar: Float) -> Tensor<Scalar>
টেনসারের প্রতিটি স্কেলারে স্কেলার যুক্ত করে এবং যোগফল উত্পাদন করে।
ঘোষণা
@differentiable public static func + (lhs: Scalar, rhs: Tensor) -> Tensor
টেনসারের প্রতিটি স্কেলারে স্কেলার যুক্ত করে এবং যোগফল উত্পাদন করে।
ঘোষণা
@differentiable public static func + (lhs: Tensor, rhs: Scalar) -> Tensor
টেনসরের প্রতিটি স্কেলার থেকে স্কেলারটি বিয়োগ করে এবং পার্থক্য তৈরি করে।
ঘোষণা
@differentiable public static func - (lhs: Scalar, rhs: Tensor) -> Tensor
টেনসরের প্রতিটি স্কেলার থেকে স্কেলারটি বিয়োগ করে এবং পার্থক্য তৈরি করে
ঘোষণা
@differentiable public static func - (lhs: Tensor, rhs: Scalar) -> Tensor
দুটি টেনার যুক্ত করে এবং ফলাফলটি বাম-হাতের ভেরিয়েবলের মধ্যে সঞ্চয় করে।
বিঃদ্রঃ
+=
সম্প্রচার সমর্থন করে।ঘোষণা
public static func += (lhs: inout Tensor, rhs: Tensor)
টেনসারের প্রতিটি স্কেলারে স্কেলার যুক্ত করে এবং ফলাফলটি বাম-হাতের ভেরিয়েবলের মধ্যে সঞ্চয় করে।
ঘোষণা
public static func += (lhs: inout Tensor, rhs: Scalar)
প্রথম থেকে দ্বিতীয় টেনসর বিয়োগ করে এবং ফলাফলটি বাম-হাতের ভেরিয়েবলের মধ্যে সঞ্চয় করে।
বিঃদ্রঃ
-=
সম্প্রচার সমর্থন করে।ঘোষণা
public static func -= (lhs: inout Tensor, rhs: Tensor)
টেনসরের প্রতিটি স্কেলার থেকে স্কেলারটি বিয়োগ করে এবং ফলাফলটি বাম-হাতের ভেরিয়েবলের মধ্যে সঞ্চয় করে।
ঘোষণা
public static func -= (lhs: inout Tensor, rhs: Scalar)
দুটি টেনারকে গুণ করে উত্পাদিত টেনসরকে ফিরিয়ে দেয়।
বিঃদ্রঃ
*
সম্প্রচার সমর্থন করে।ঘোষণা
@differentiable public static func * (lhs: Tensor, rhs: Tensor) -> Tensor
টেনসরের প্রতিটি স্কেলারের সাথে এটি গুণ করে টেনসরকে ফিরিয়ে দেয়।
ঘোষণা
@differentiable public static func * (lhs: Scalar, rhs: Tensor) -> Tensor
টেনসারের প্রতিটি স্কেলারের সাথে স্কেলারকে গুণ করে এবং পণ্য উত্পাদন করে।
ঘোষণা
@differentiable public static func * (lhs: Tensor, rhs: Scalar) -> Tensor
দুটি টেনারকে গুণ করে এবং ফলাফলটি বাম-হাতের ভেরিয়েবলটিতে সঞ্চয় করে।
বিঃদ্রঃ
*=
সম্প্রচার সমর্থন করে।ঘোষণা
public static func *= (lhs: inout Tensor, rhs: Tensor)
স্কেলারের সাথে টেনসরকে গুণ করে, স্কেলারটি সম্প্রচার করে এবং ফলাফলটি বাম-হাতের ভেরিয়েবলের মধ্যে সঞ্চয় করে।
ঘোষণা
public static func *= (lhs: inout Tensor, rhs: Scalar)
দ্বিতীয় দ্বারা প্রথম টেনসরকে বিভক্ত করার ভাগফলকে ফিরিয়ে দেয়।
বিঃদ্রঃ
/
সম্প্রচার সমর্থন।ঘোষণা
@differentiable public static func / (lhs: Tensor, rhs: Tensor) -> Tensor
স্কেলারটি সম্প্রচার করে স্কেলার দ্বারা স্কেলারকে বিভক্ত করার ভাগফলকে ফিরিয়ে দেয়।
ঘোষণা
@differentiable public static func / (lhs: Scalar, rhs: Tensor) -> Tensor
স্কেলার দ্বারা স্কেলারটি সম্প্রচার করে টেনসরকে বিভক্ত করার ভাগফলকে ফিরিয়ে দেয়।
ঘোষণা
@differentiable public static func / (lhs: Tensor, rhs: Scalar) -> Tensor
প্রথম টেনসরকে দ্বিতীয় দ্বারা বিভক্ত করে এবং বাম-হাতের ভেরিয়েবলের মধ্যে ভাগফলকে সঞ্চয় করে।
ঘোষণা
public static func /= (lhs: inout Tensor, rhs: Tensor)
স্কেলার দ্বারা টেনসরকে বিভক্ত করে, স্কেলারটি সম্প্রচার করে এবং বাম-হাতের ভেরিয়েবলের মধ্যে ভাগফলকে সঞ্চয় করে।
ঘোষণা
public static func /= (lhs: inout Tensor, rhs: Scalar)
দ্বিতীয় দ্বারা প্রথম টেনসরকে বিভক্ত করার বাকী অংশগুলি প্রদান করে।
বিঃদ্রঃ
%
সম্প্রচার সমর্থন করে।ঘোষণা
public static func % (lhs: Tensor, rhs: Tensor) -> Tensor
স্কেলার দ্বারা স্কেলারটি সম্প্রচার করে টেনসরকে বিভক্ত করার বাকী অংশগুলি প্রদান করে।
ঘোষণা
public static func % (lhs: Tensor, rhs: Scalar) -> Tensor
স্কেলার দ্বারা স্কেলারটি বিভক্ত করার বাকী অংশগুলি স্কেলার সম্প্রচার করে।
ঘোষণা
public static func % (lhs: Scalar, rhs: Tensor) -> Tensor
প্রথম টেনসরকে দ্বিতীয় দ্বারা বিভক্ত করে এবং বাকী অংশগুলি বাম-হাতের ভেরিয়েবলটিতে সঞ্চয় করে।
ঘোষণা
public static func %= (lhs: inout Tensor, rhs: Tensor)
স্কেলার দ্বারা টেনসরকে বিভক্ত করে এবং বাকীগুলি বাম-হাতের ভেরিয়েবলের মধ্যে সঞ্চয় করে।
ঘোষণা
public static func %= (lhs: inout Tensor, rhs: Scalar)
রিটার্নস
!self
উপাদান ভিত্তিক।ঘোষণা
public func elementsLogicalNot() -> Tensor
self && other
উপাদান অনুসারে প্রদান করে।বিঃদ্রঃ
&&
সম্প্রচার সমর্থন করে।ঘোষণা
public func elementsLogicalAnd(_ other: Tensor) -> Tensor
self && other
উপাদান-ভিত্তিক,other
সম্প্রচার করে।ঘোষণা
public func elementsLogicalAnd(_ other: Scalar) -> Tensor
self || other
উপাদান ভিত্তিক।ঘোষণা
public func elementsLogicalOr(_ other: Tensor) -> Tensor
self || other
উপাদান ভিত্তিক, সম্প্রচারother
।ঘোষণা
public func elementsLogicalOr(_ other: Scalar) -> Tensor
max(min(self, max), min)
।ঘোষণা
@differentiable public func clipped(min: Tensor, max: Tensor) -> Tensor
max(min(self, max), min)
।ঘোষণা
@differentiable(wrt: (self, min) ) public func clipped(min: Tensor, max: Scalar) -> Tensor
max(min(self, max), min)
।ঘোষণা
@differentiable(wrt: (self, max) ) public func clipped(min: Scalar, max: Tensor) -> Tensor
max(min(self, max), min)
।ঘোষণা
@differentiable(wrt: self) public func clipped(min: Scalar, max: Scalar) -> Tensor
নির্দিষ্ট টেনসর উপাদান ভিত্তিক অবহেলা প্রদান করে।
ঘোষণা
@differentiable public prefix static func - (rhs: Tensor) -> Tensor
ঘোষণা
@differentiable(wrt: self) public func squared() -> Tensor
x
এর উপাদানগুলি সীমাবদ্ধ তা নির্দেশ করে একটি বুলিয়ান টেনসরকে ফিরিয়ে দেয়।ঘোষণা
public var isFinite: Tensor<Bool> { get }
x
এর কোন উপাদানগুলি অসীম তা নির্দেশ করে একটি বুলিয়ান টেনসর প্রদান করে।ঘোষণা
public var isInfinite: Tensor<Bool> { get }
x
এর কোন উপাদানগুলি ন্যান-মূল্যবান তা নির্দেশ করে একটি বুলিয়ান টেনসর প্রদান করে।ঘোষণা
public var isNaN: Tensor<Bool> { get }
সমস্ত স্কেলার
true
সমান হলেtrue
প্রত্যাবর্তন করে। অন্যথায়,false
ফেরত দেয়।ঘোষণা
public func all() -> Bool
যদি কোনও স্কেলারগুলি
true
সমান হয় তবেtrue
প্রত্যাবর্তন করে। অন্যথায়,false
ফেরত দেয়।ঘোষণা
public func any() -> Bool
নির্দিষ্ট অক্ষগুলি বরাবর একটি যৌক্তিক এবং অপারেশন সম্পাদন করে। হ্রাস মাত্রা সরানো হয়।
পূর্বশর্ত
axes
প্রতিটি মান অবশ্যই রেঞ্জ-rank..<rank
।ঘোষণা
public func all(squeezingAxes axes: Int...) -> Tensor
পরামিতি
axes
মাত্রা কমাতে.
নির্দিষ্ট অক্ষগুলি বরাবর একটি যৌক্তিক এবং অপারেশন সম্পাদন করে। হ্রাস মাত্রা সরানো হয়।
পূর্বশর্ত
axes
প্রতিটি মান অবশ্যই রেঞ্জ-rank..<rank
।ঘোষণা
public func any(squeezingAxes axes: Int...) -> Tensor
পরামিতি
axes
মাত্রা কমাতে.
নির্দিষ্ট অক্ষগুলি বরাবর একটি যৌক্তিক এবং অপারেশন সম্পাদন করে। হ্রাস মাত্রা মান 1 দিয়ে ধরে রাখা হয়।
পূর্বশর্ত
axes
প্রতিটি মান অবশ্যই রেঞ্জ-rank..<rank
।ঘোষণা
public func all(alongAxes axes: Int...) -> Tensor
পরামিতি
axes
মাত্রা কমাতে.
নির্দিষ্ট অক্ষগুলি বরাবর একটি যৌক্তিক বা অপারেশন সম্পাদন করে। হ্রাস মাত্রা মান 1 দিয়ে ধরে রাখা হয়।
পূর্বশর্ত
axes
প্রতিটি মান অবশ্যই রেঞ্জ-rank..<rank
।ঘোষণা
public func any(alongAxes axes: Int...) -> Tensor
পরামিতি
axes
মাত্রা কমাতে.
ঘোষণা
@differentiable public func min() -> Tensor
ঘোষণা
@differentiable public func max() -> Tensor
নির্দিষ্ট অক্ষ বরাবর সর্বাধিক মান প্রদান করে। হ্রাস মাত্রা সরানো হয়।
পূর্বশর্ত
axes
প্রতিটি মান অবশ্যই রেঞ্জ-rank..<rank
।ঘোষণা
@differentiable(wrt: self) public func max(squeezingAxes axes: Tensor<Int32>) -> Tensor
পরামিতি
axes
মাত্রা কমাতে.
নির্দিষ্ট অক্ষ বরাবর সর্বাধিক মান প্রদান করে। হ্রাস মাত্রা সরানো হয়।
পূর্বশর্ত
axes
প্রতিটি মান অবশ্যই রেঞ্জ-rank..<rank
।ঘোষণা
@differentiable(wrt: self) public func max(squeezingAxes axes: [Int]) -> Tensor
পরামিতি
axes
মাত্রা কমাতে.
নির্দিষ্ট অক্ষ বরাবর সর্বাধিক মান প্রদান করে। হ্রাস মাত্রা সরানো হয়।
পূর্বশর্ত
axes
প্রতিটি মান অবশ্যই রেঞ্জ-rank..<rank
।ঘোষণা
@differentiable(wrt: self) public func max(squeezingAxes axes: Int...) -> Tensor
পরামিতি
axes
মাত্রা কমাতে.
নির্দিষ্ট অক্ষ বরাবর সর্বনিম্ন মানগুলি প্রদান করে। হ্রাস মাত্রা সরানো হয়।
পূর্বশর্ত
axes
প্রতিটি মান অবশ্যই রেঞ্জ-rank..<rank
।ঘোষণা
@differentiable(wrt: self) public func min(squeezingAxes axes: Tensor<Int32>) -> Tensor
পরামিতি
axes
মাত্রা কমাতে.
নির্দিষ্ট অক্ষ বরাবর সর্বনিম্ন মানগুলি প্রদান করে। হ্রাস মাত্রা সরানো হয়।
পূর্বশর্ত
axes
প্রতিটি মান অবশ্যই রেঞ্জ-rank..<rank
।ঘোষণা
@differentiable(wrt: self) public func min(squeezingAxes axes: [Int]) -> Tensor
পরামিতি
axes
মাত্রা কমাতে.
নির্দিষ্ট অক্ষ বরাবর সর্বনিম্ন মানগুলি প্রদান করে। হ্রাস মাত্রা সরানো হয়।
পূর্বশর্ত
axes
প্রতিটি মান অবশ্যই রেঞ্জ-rank..<rank
।ঘোষণা
@differentiable(wrt: self) public func min(squeezingAxes axes: Int...) -> Tensor
পরামিতি
axes
মাত্রা কমাতে.
নির্দিষ্ট অক্ষগুলির সাথে সর্বাধিক মানের সূচকগুলি ফেরত দেয়। হ্রাস মাত্রা সরানো হয়।
পূর্বশর্ত
axes
প্রতিটি মান অবশ্যই রেঞ্জ-rank..<rank
।ঘোষণা
public func argmax(squeezingAxis axis: Int) -> Tensor<Int32>
পরামিতি
axes
মাত্রা কমাতে.
নির্দিষ্ট অক্ষগুলির সাথে ন্যূনতম মানগুলির সূচকগুলি প্রদান করে। হ্রাস মাত্রা সরানো হয়।
পূর্বশর্ত
axes
প্রতিটি মান অবশ্যই রেঞ্জ-rank..<rank
।ঘোষণা
public func argmin(squeezingAxis axis: Int) -> Tensor<Int32>
পরামিতি
axes
মাত্রা কমাতে.
নির্দিষ্ট অক্ষ বরাবর সর্বনিম্ন ফেরত দেয়। হ্রাস মাত্রা মান 1 দিয়ে ধরে রাখা হয়।
পূর্বশর্ত
axes
প্রতিটি মান অবশ্যই রেঞ্জ-rank..<rank
।ঘোষণা
@differentiable(wrt: self) public func min(alongAxes axes: Tensor<Int32>) -> Tensor
পরামিতি
axes
মাত্রা কমাতে.
নির্দিষ্ট অক্ষ বরাবর সর্বনিম্ন ফেরত দেয়। হ্রাস মাত্রা মান 1 দিয়ে ধরে রাখা হয়।
পূর্বশর্ত
axes
প্রতিটি মান অবশ্যই রেঞ্জ-rank..<rank
।ঘোষণা
@differentiable(wrt: self) public func min(alongAxes axes: [Int]) -> Tensor
পরামিতি
axes
মাত্রা কমাতে.
নির্দিষ্ট অক্ষ বরাবর সর্বনিম্ন ফেরত দেয়। হ্রাস মাত্রা মান 1 দিয়ে ধরে রাখা হয়।
পূর্বশর্ত
axes
প্রতিটি মান অবশ্যই রেঞ্জ-rank..<rank
।ঘোষণা
@differentiable(wrt: self) public func min(alongAxes axes: Int...) -> Tensor
পরামিতি
axes
মাত্রা কমাতে.
নির্দিষ্ট অক্ষ বরাবর সর্বনিম্ন ফেরত দেয়। হ্রাস মাত্রা মান 1 দিয়ে ধরে রাখা হয়।
পূর্বশর্ত
axes
প্রতিটি মান অবশ্যই রেঞ্জ-rank..<rank
।ঘোষণা
@differentiable(wrt: self) public func max(alongAxes axes: Tensor<Int32>) -> Tensor
পরামিতি
axes
মাত্রা কমাতে.
নির্দিষ্ট অক্ষ বরাবর সর্বনিম্ন ফেরত দেয়। হ্রাস মাত্রা মান 1 দিয়ে ধরে রাখা হয়।
পূর্বশর্ত
axes
প্রতিটি মান অবশ্যই রেঞ্জ-rank..<rank
।ঘোষণা
@differentiable(wrt: self) public func max(alongAxes axes: [Int]) -> Tensor
পরামিতি
axes
মাত্রা কমাতে.
নির্দিষ্ট অক্ষ বরাবর সর্বনিম্ন ফেরত দেয়। হ্রাস মাত্রা মান 1 দিয়ে ধরে রাখা হয়।
পূর্বশর্ত
axes
প্রতিটি মান অবশ্যই রেঞ্জ-rank..<rank
।ঘোষণা
@differentiable(wrt: self) public func max(alongAxes axes: Int...) -> Tensor
পরামিতি
axes
মাত্রা কমাতে.
সমতল স্কেলারগুলির সর্বাধিক মানের সূচকটি ফেরত দেয়।
ঘোষণা
public func argmax() -> Tensor<Int32>
সমতল স্কেলারগুলির সর্বনিম্ন মানের সূচকটি প্রদান করে।
ঘোষণা
public func argmin() -> Tensor<Int32>
নির্দিষ্ট অক্ষ বরাবর যোগফল প্রদান করে। হ্রাস মাত্রা সরানো হয়।
পূর্বশর্ত
axes
প্রতিটি মান অবশ্যই রেঞ্জ-rank...rank
থাকতে হবে।ঘোষণা
@differentiable(wrt: self) public func sum(squeezingAxes axes: Tensor<Int32>) -> Tensor
পরামিতি
axes
মাত্রা কমাতে.
নির্দিষ্ট অক্ষ বরাবর যোগফল প্রদান করে। হ্রাস মাত্রা সরানো হয়।
পূর্বশর্ত
axes
প্রতিটি মান অবশ্যই রেঞ্জ-rank...rank
থাকতে হবে।ঘোষণা
@differentiable(wrt: self) public func sum(squeezingAxes axes: [Int]) -> Tensor
পরামিতি
axes
মাত্রা কমাতে.
নির্দিষ্ট অক্ষ বরাবর যোগফল প্রদান করে। হ্রাস মাত্রা সরানো হয়।
পূর্বশর্ত
axes
প্রতিটি মান অবশ্যই রেঞ্জ-rank...rank
থাকতে হবে।ঘোষণা
@differentiable(wrt: self) public func sum(squeezingAxes axes: Int...) -> Tensor
পরামিতি
axes
মাত্রা কমাতে.
ঘোষণা
@differentiable(wrt: self) public func sum() -> Tensor
নির্দিষ্ট অক্ষ বরাবর যোগফল প্রদান করে। হ্রাস মাত্রা মান 1 দিয়ে ধরে রাখা হয়।
পূর্বশর্ত
axes
প্রতিটি মান অবশ্যই রেঞ্জ-rank..<rank
।ঘোষণা
@differentiable(wrt: self) public func sum(alongAxes axes: Tensor<Int32>) -> Tensor
পরামিতি
axes
মাত্রা কমাতে.
নির্দিষ্ট অক্ষ বরাবর যোগফল প্রদান করে। হ্রাস মাত্রা মান 1 দিয়ে ধরে রাখা হয়।
পূর্বশর্ত
axes
প্রতিটি মান অবশ্যই রেঞ্জ-rank..<rank
।ঘোষণা
@differentiable(wrt: self) public func sum(alongAxes axes: [Int]) -> Tensor
পরামিতি
axes
মাত্রা কমাতে.
নির্দিষ্ট অক্ষ বরাবর যোগফল প্রদান করে। হ্রাস মাত্রা মান 1 দিয়ে ধরে রাখা হয়।
পূর্বশর্ত
axes
প্রতিটি মান অবশ্যই রেঞ্জ-rank..<rank
।ঘোষণা
@differentiable(wrt: self) public func sum(alongAxes axes: Int...) -> Tensor
পরামিতি
axes
মাত্রা কমাতে.
নির্দিষ্ট অক্ষ বরাবর পণ্য প্রদান করে। হ্রাস মাত্রা সরানো হয়।
পূর্বশর্ত
axes
প্রতিটি মান অবশ্যই রেঞ্জ-rank...rank
থাকতে হবে।ঘোষণা
@differentiable(wrt: self) public func product(squeezingAxes axes: Tensor<Int32>) -> Tensor
পরামিতি
axes
মাত্রা কমাতে.
নির্দিষ্ট অক্ষ বরাবর পণ্য প্রদান করে। হ্রাস মাত্রা সরানো হয়।
পূর্বশর্ত
axes
প্রতিটি মান অবশ্যই রেঞ্জ-rank...rank
থাকতে হবে।ঘোষণা
@differentiable(wrt: self) public func product(squeezingAxes axes: [Int]) -> Tensor
পরামিতি
axes
মাত্রা কমাতে.
নির্দিষ্ট অক্ষ বরাবর পণ্য প্রদান করে। হ্রাস মাত্রা সরানো হয়।
পূর্বশর্ত
axes
প্রতিটি মান অবশ্যই রেঞ্জ-rank...rank
থাকতে হবে।ঘোষণা
@differentiable(wrt: self) public func product(squeezingAxes axes: Int...) -> Tensor
পরামিতি
axes
মাত্রা কমাতে.
ঘোষণা
@differentiable(wrt: self) public func product() -> Tensor
নির্দিষ্ট অক্ষ বরাবর পণ্য প্রদান করে। হ্রাস মাত্রা মান 1 দিয়ে ধরে রাখা হয়।
পূর্বশর্ত
axes
প্রতিটি মান অবশ্যই রেঞ্জ-rank..<rank
।ঘোষণা
public func product(alongAxes axes: Tensor<Int32>) -> Tensor
পরামিতি
axes
মাত্রা কমাতে.
নির্দিষ্ট অক্ষ বরাবর পণ্য প্রদান করে। হ্রাস মাত্রা মান 1 দিয়ে ধরে রাখা হয়।
পূর্বশর্ত
axes
প্রতিটি মান অবশ্যই রেঞ্জ-rank..<rank
।ঘোষণা
public func product(alongAxes axes: [Int]) -> Tensor
পরামিতি
axes
মাত্রা কমাতে.
নির্দিষ্ট অক্ষ বরাবর পণ্য প্রদান করে। হ্রাস মাত্রা মান 1 দিয়ে ধরে রাখা হয়।
পূর্বশর্ত
axes
প্রতিটি মান অবশ্যই রেঞ্জ-rank..<rank
।ঘোষণা
public func product(alongAxes axes: Int...) -> Tensor
পরামিতি
axes
মাত্রা কমাতে.
নির্দিষ্ট অক্ষগুলির সাথে গাণিতিক গড়টি ফেরত দেয়। হ্রাস মাত্রা সরানো হয়।
পূর্বশর্ত
axes
প্রতিটি মান অবশ্যই রেঞ্জ-rank...rank
থাকতে হবে।ঘোষণা
@differentiable(wrt: self) public func mean(squeezingAxes axes: Tensor<Int32>) -> Tensor
পরামিতি
axes
মাত্রা কমাতে.
নির্দিষ্ট অক্ষগুলির সাথে গাণিতিক গড়টি ফেরত দেয়। হ্রাস মাত্রা সরানো হয়।
পূর্বশর্ত
axes
প্রতিটি মান অবশ্যই রেঞ্জ-rank...rank
থাকতে হবে।ঘোষণা
@differentiable(wrt: self) public func mean(squeezingAxes axes: [Int]) -> Tensor
পরামিতি
axes
মাত্রা কমাতে.
নির্দিষ্ট অক্ষগুলির সাথে গাণিতিক গড়টি ফেরত দেয়। হ্রাস মাত্রা সরানো হয়।
পূর্বশর্ত
axes
প্রতিটি মান অবশ্যই রেঞ্জ-rank...rank
থাকতে হবে।ঘোষণা
@differentiable(wrt: self) public func mean(squeezingAxes axes: Int...) -> Tensor
পরামিতি
axes
মাত্রা কমাতে.
ঘোষণা
@differentiable(wrt: self) public func mean() -> Tensor
নির্দিষ্ট অক্ষগুলির সাথে গাণিতিক গড়টি ফেরত দেয়। হ্রাস মাত্রা মান 1 দিয়ে ধরে রাখা হয়।
পূর্বশর্ত
axes
প্রতিটি মান অবশ্যই রেঞ্জ-rank..<rank
।ঘোষণা
@differentiable(wrt: self) public func mean(alongAxes axes: Tensor<Int32>) -> Tensor
পরামিতি
axes
মাত্রা কমাতে.
নির্দিষ্ট অক্ষগুলির সাথে গাণিতিক গড়টি ফেরত দেয়। হ্রাস মাত্রা মান 1 দিয়ে ধরে রাখা হয়।
পূর্বশর্ত
axes
প্রতিটি মান অবশ্যই রেঞ্জ-rank..<rank
।ঘোষণা
@differentiable(wrt: self) public func mean(alongAxes axes: [Int]) -> Tensor
পরামিতি
axes
মাত্রা কমাতে.
নির্দিষ্ট অক্ষগুলির সাথে গাণিতিক গড়টি ফেরত দেয়। হ্রাস মাত্রা মান 1 দিয়ে ধরে রাখা হয়।
পূর্বশর্ত
axes
প্রতিটি মান অবশ্যই রেঞ্জ-rank..<rank
।ঘোষণা
@differentiable(wrt: self) public func mean(alongAxes axes: Int...) -> Tensor
পরামিতি
axes
মাত্রা কমাতে.
নির্দিষ্ট অক্ষ বরাবর বৈকল্পিকতা প্রদান করে। হ্রাস মাত্রা সরানো হয়। বেসেলের সংশোধন প্রয়োগ করে না।
পূর্বশর্ত
axes
প্রতিটি মান অবশ্যই রেঞ্জ-rank..<rank
।ঘোষণা
@differentiable(wrt: self) public func variance(squeezingAxes axes: Tensor<Int32>) -> Tensor
পরামিতি
axes
মাত্রা কমাতে.
নির্দিষ্ট অক্ষ বরাবর বৈকল্পিকতা প্রদান করে। হ্রাস মাত্রা সরানো হয়। বেসেলের সংশোধন প্রয়োগ করে না।
পূর্বশর্ত
axes
প্রতিটি মান অবশ্যই রেঞ্জ-rank..<rank
।ঘোষণা
@differentiable(wrt: self) public func variance(squeezingAxes axes: [Int]) -> Tensor
পরামিতি
axes
মাত্রা কমাতে.
নির্দিষ্ট অক্ষ বরাবর বৈকল্পিকতা প্রদান করে। হ্রাস মাত্রাগুলি মান 1 দিয়ে ধরে রাখা হয় বেসেলের সংশোধন প্রয়োগ করে না।
পূর্বশর্ত
axes
প্রতিটি মান অবশ্যই রেঞ্জ-rank..<rank
।ঘোষণা
@differentiable(wrt: self) public func variance(squeezingAxes axes: Int...) -> Tensor
পরামিতি
axes
মাত্রা কমাতে.
ঘোষণা
@differentiable(wrt: self) public func variance() -> Tensor
নির্দিষ্ট অক্ষ বরাবর বৈকল্পিকতা প্রদান করে। হ্রাস মাত্রাগুলি মান 1 দিয়ে ধরে রাখা হয় বেসেলের সংশোধন প্রয়োগ করে না।
পূর্বশর্ত
axes
প্রতিটি মান অবশ্যই রেঞ্জ-rank..<rank
।ঘোষণা
@differentiable(wrt: self) public func variance(alongAxes axes: Tensor<Int32>) -> Tensor
পরামিতি
axes
মাত্রা কমাতে.
নির্দিষ্ট অক্ষ বরাবর বৈকল্পিকতা প্রদান করে। হ্রাস মাত্রাগুলি মান 1 দিয়ে ধরে রাখা হয় বেসেলের সংশোধন প্রয়োগ করে না।
পূর্বশর্ত
axes
প্রতিটি মান অবশ্যই রেঞ্জ-rank..<rank
।ঘোষণা
@differentiable(wrt: self) public func variance(alongAxes axes: [Int]) -> Tensor
পরামিতি
axes
মাত্রা কমাতে.
নির্দিষ্ট অক্ষ বরাবর বৈকল্পিকতা প্রদান করে। হ্রাস মাত্রাগুলি মান 1 দিয়ে ধরে রাখা হয় বেসেলের সংশোধন প্রয়োগ করে না।
পূর্বশর্ত
axes
প্রতিটি মান অবশ্যই রেঞ্জ-rank..<rank
।ঘোষণা
@differentiable(wrt: self) public func variance(alongAxes axes: Int...) -> Tensor
পরামিতি
axes
মাত্রা কমাতে.
নির্দিষ্ট অক্ষ বরাবর এই টেনসারের সংশ্লেষিত যোগফলটি ফিরিয়ে দেয়। ডিফল্টরূপে, এই ফাংশনটি একটি অন্তর্ভুক্তিমূলক সমষ্টি সম্পাদন করে যার অর্থ ইনপুটটির প্রথম উপাদানটি আউটপুটটির প্রথম উপাদানটির সাথে সমান:
Tensor<Float>([a, b, c]).cumulativeSum() = Tensor<Float>([a, a + b, a + b + c])
true
exclusive
যুক্তি সেট করে, পরিবর্তে একটি একচেটিয়া ক্রমবর্ধমান যোগফল সম্পাদিত হয়:Tensor<Float>([a, b, c]).cumulativeSum(exclusive: true) = Tensor<Float>([0, a, a + b])
reverse
যুক্তিটিকেtrue
সেট করে, সংশ্লেষিত যোগফলটি বিপরীত দিকে সঞ্চালিত হয়:Tensor<Float>([a, b, c]).cumulativeSum(reverse: true) == Tensor<Float>([a + b + c, a + b, a])
এটি ফলাফলের টেনসরকে আলাদাভাবে বিপরীত করার চেয়ে আরও দক্ষ।
পূর্বশর্ত
axis
অবশ্যই রেঞ্জ-rank..<rank
।ঘোষণা
@differentiable(wrt: self) public func cumulativeSum( alongAxis axis: Int, exclusive: Bool = false, reverse: Bool = false ) -> Tensor
পরামিতি
axis
অক্ষ যা বরাবর ক্রমবর্ধমান সমষ্টি অপারেশন সম্পাদন করতে হবে।
exclusive
একচেটিয়া সংশ্লেষিত যোগফল সম্পাদন করবেন কিনা তা নির্দেশ করে।
reverse
বিপরীত ক্রমে ক্রমবর্ধমান যোগফল সম্পাদন করবেন কিনা তা নির্দেশ করে।
ফেরত মূল্য
ক্রমবর্ধমান সমষ্টি অপারেশনের ফলাফল।
নির্দিষ্ট অক্ষ বরাবর এই টেনসারের সংশ্লেষিত যোগফলটি ফিরিয়ে দেয়। ডিফল্টরূপে, এই ফাংশনটি একটি অন্তর্ভুক্তিমূলক সমষ্টি সম্পাদন করে যার অর্থ ইনপুটটির প্রথম উপাদানটি আউটপুটটির প্রথম উপাদানটির সাথে সমান:
Tensor<Float>([a, b, c]).cumulativeSum() = Tensor<Float>([a, a + b, a + b + c])
true
exclusive
যুক্তি সেট করে, পরিবর্তে একটি একচেটিয়া ক্রমবর্ধমান যোগফল সম্পাদিত হয়:Tensor<Float>([a, b, c]).cumulativeSum(exclusive: true) = Tensor<Float>([0, a, a + b])
reverse
যুক্তিটিকেtrue
সেট করে, সংশ্লেষিত যোগফলটি বিপরীত দিকে সঞ্চালিত হয়:Tensor<Float>([a, b, c]).cumulativeSum(reverse: true) == Tensor<Float>([a + b + c, a + b, a])
এটি ফলাফলের টেনসরকে আলাদাভাবে বিপরীত করার চেয়ে আরও দক্ষ।
পূর্বশর্ত
axis.rank
অবশ্যই0
হতে হবে।পূর্বশর্ত
axis
অবশ্যই রেঞ্জ-rank..<rank
।ঘোষণা
@differentiable(wrt: self) public func cumulativeSum( alongAxis axis: Tensor<Int32>, exclusive: Bool = false, reverse: Bool = false ) -> Tensor
পরামিতি
axis
অক্ষ যা বরাবর ক্রমবর্ধমান সমষ্টি অপারেশন সম্পাদন করতে হবে।
exclusive
একচেটিয়া সংশ্লেষিত যোগফল সম্পাদন করবেন কিনা তা নির্দেশ করে।
reverse
বিপরীত ক্রমে ক্রমবর্ধমান যোগফল সম্পাদন করবেন কিনা তা নির্দেশ করে।
ফেরত মূল্য
ক্রমবর্ধমান সমষ্টি অপারেশনের ফলাফল।
নির্দিষ্ট অক্ষ বরাবর এই টেনসারের ক্রমবর্ধমান পণ্যটি ফেরত দেয়। ডিফল্টরূপে, এই ফাংশনটি একটি অন্তর্ভুক্তিমূলক পণ্য সম্পাদন করে যার অর্থ ইনপুটটির প্রথম উপাদানটি আউটপুটটির প্রথম উপাদানটির সাথে সমান:
Tensor<Float>([a, b, c]).cumulativeProduct() = Tensor<Float>([a, a * b, a * b * c])
true
exclusive
যুক্তি সেট করে, পরিবর্তে একটি একচেটিয়া ক্রমযুক্ত পণ্য সঞ্চালিত হয়:Tensor<Float>([a, b, c]).cumulativeProduct(exclusive: true) = Tensor<Float>([1, a, a * b])
reverse
যুক্তিটিকেtrue
সেট করে, সংশ্লেষিত পণ্যটি বিপরীত দিকে সঞ্চালিত হয়:Tensor<Float>([a, b, c]).cumulativeProduct(reverse: true) == Tensor<Float>([a * b * c, a * b, a])
এটি ফলাফলের টেনসরকে আলাদাভাবে বিপরীত করার চেয়ে আরও দক্ষ।
পূর্বশর্ত
axis
অবশ্যই রেঞ্জ-rank..<rank
।ঘোষণা
@differentiable(wrt: self) public func cumulativeProduct( alongAxis axis: Int, exclusive: Bool = false, reverse: Bool = false ) -> Tensor
পরামিতি
axis
অক্ষটি যার সাথে ক্রমবর্ধমান পণ্য অপারেশন সম্পাদন করতে হবে।
exclusive
একচেটিয়া ক্রমযুক্ত পণ্য সম্পাদন করবেন কিনা তা নির্দেশ করে।
reverse
বিপরীত ক্রমে ক্রমবর্ধমান পণ্য সম্পাদন করবেন কিনা তা নির্দেশ করে।
ফেরত মূল্য
ক্রমবর্ধমান পণ্য অপারেশনের ফলাফল।
নির্দিষ্ট অক্ষ বরাবর এই টেনসারের ক্রমবর্ধমান পণ্যটি ফেরত দেয়। ডিফল্টরূপে, এই ফাংশনটি একটি অন্তর্ভুক্তিমূলক পণ্য সম্পাদন করে যার অর্থ ইনপুটটির প্রথম উপাদানটি আউটপুটটির প্রথম উপাদানটির সাথে সমান:
Tensor<Float>([a, b, c]).cumulativeProduct() = Tensor<Float>([a, a * b, a * b * c])
true
exclusive
যুক্তি সেট করে, পরিবর্তে একটি একচেটিয়া ক্রমযুক্ত পণ্য সঞ্চালিত হয়:Tensor<Float>([a, b, c]).cumulativeProduct(exclusive: true) = Tensor<Float>([1, a, a * b])
reverse
যুক্তিটিকেtrue
সেট করে, সংশ্লেষিত পণ্যটি বিপরীত দিকে সঞ্চালিত হয়:Tensor<Float>([a, b, c]).cumulativeProduct(reverse: true) == Tensor<Float>([a * b * c, a * b, a])
এটি ফলাফলের টেনসরকে আলাদাভাবে বিপরীত করার চেয়ে আরও দক্ষ।
পূর্বশর্ত
axis
0
র্যাঙ্ক থাকতে হবে।পূর্বশর্ত
axis
অবশ্যই রেঞ্জ-rank..<rank
।ঘোষণা
@differentiable(wrt: self) public func cumulativeProduct( alongAxis axis: Tensor<Int32>, exclusive: Bool = false, reverse: Bool = false ) -> Tensor
পরামিতি
axis
অক্ষটি যার সাথে ক্রমবর্ধমান পণ্য অপারেশন সম্পাদন করতে হবে।
exclusive
একচেটিয়া ক্রমযুক্ত পণ্য সম্পাদন করবেন কিনা তা নির্দেশ করে।
reverse
বিপরীত ক্রমে ক্রমবর্ধমান পণ্য সম্পাদন করবেন কিনা তা নির্দেশ করে।
ফেরত মূল্য
ক্রমবর্ধমান পণ্য অপারেশনের ফলাফল।
নির্দিষ্ট অক্ষগুলির সাথে উপাদানগুলির স্ট্যান্ডার্ড বিচ্যুতি প্রদান করে। হ্রাস মাত্রা মান
1
দিয়ে ধরে রাখা হয়। বেসেলের সংশোধন প্রয়োগ করে না।পূর্বশর্ত
axes
প্রতিটি মান অবশ্যই রেঞ্জ-rank..<rank
।ঘোষণা
@differentiable(wrt: self) public func standardDeviation(squeezingAxes axes: Tensor<Int32>) -> Tensor
পরামিতি
axes
মাত্রা কমাতে.
নির্দিষ্ট অক্ষগুলির সাথে উপাদানগুলির স্ট্যান্ডার্ড বিচ্যুতি প্রদান করে। হ্রাস মাত্রা মান
1
দিয়ে ধরে রাখা হয়। বেসেলের সংশোধন প্রয়োগ করে না।পূর্বশর্ত
axes
প্রতিটি মান অবশ্যই রেঞ্জ-rank..<rank
।ঘোষণা
@differentiable(wrt: self) public func standardDeviation(squeezingAxes axes: [Int]) -> Tensor
পরামিতি
axes
মাত্রা কমাতে.
নির্দিষ্ট অক্ষগুলির সাথে উপাদানগুলির স্ট্যান্ডার্ড বিচ্যুতি প্রদান করে। হ্রাস মাত্রা মান
1
দিয়ে ধরে রাখা হয়। বেসেলের সংশোধন প্রয়োগ করে না।পূর্বশর্ত
axes
প্রতিটি মান অবশ্যই রেঞ্জ-rank..<rank
।ঘোষণা
@differentiable(wrt: self) public func standardDeviation(squeezingAxes axes: Int...) -> Tensor
পরামিতি
axes
মাত্রা কমাতে.
এই টেনসারে সমস্ত উপাদানগুলির মান বিচ্যুতি প্রদান করে। বেসেলের সংশোধন প্রয়োগ করে না।
পূর্বশর্ত
axes
প্রতিটি মান অবশ্যই রেঞ্জ-rank..<rank
।ঘোষণা
@differentiable(wrt: self) public func standardDeviation() -> Tensor
নির্দিষ্ট অক্ষগুলির সাথে উপাদানগুলির স্ট্যান্ডার্ড বিচ্যুতি প্রদান করে। হ্রাস মাত্রা মান
1
দিয়ে ধরে রাখা হয়। বেসেলের সংশোধন প্রয়োগ করে না।পূর্বশর্ত
axes
প্রতিটি মান অবশ্যই রেঞ্জ-rank..<rank
।ঘোষণা
@differentiable(wrt: self) public func standardDeviation(alongAxes axes: Tensor<Int32>) -> Tensor
পরামিতি
axes
মাত্রা কমাতে.
নির্দিষ্ট অক্ষগুলির সাথে উপাদানগুলির স্ট্যান্ডার্ড বিচ্যুতি প্রদান করে। হ্রাস মাত্রা মান
1
দিয়ে ধরে রাখা হয়। বেসেলের সংশোধন প্রয়োগ করে না।পূর্বশর্ত
axes
প্রতিটি মান অবশ্যই রেঞ্জ-rank..<rank
।ঘোষণা
@differentiable(wrt: self) public func standardDeviation(alongAxes axes: [Int]) -> Tensor
পরামিতি
axes
মাত্রা কমাতে.
নির্দিষ্ট অক্ষগুলির সাথে উপাদানগুলির স্ট্যান্ডার্ড বিচ্যুতি প্রদান করে। হ্রাস মাত্রা মান
1
দিয়ে ধরে রাখা হয়। বেসেলের সংশোধন প্রয়োগ করে না।পূর্বশর্ত
axes
প্রতিটি মান অবশ্যই রেঞ্জ-rank..<rank
।ঘোষণা
@differentiable(wrt: self) public func standardDeviation(alongAxes axes: Int...) -> Tensor
পরামিতি
axes
মাত্রা কমাতে.
রিটার্নস
log(exp(self).sum(squeezingAxes: axes))
। হ্রাস মাত্রা সরানো হয়।এই ফাংশনটি সরাসরি কম্পিউটিং
log(exp(self).sum(squeezingAxes: axes))
। এটি ছোট ইনপুটগুলিরlog
কম্পিউটিংয়ের মাধ্যমে বৃহত ইনপুট এবং আন্ডারফ্লোগুলিরexp
গণনা করার ফলে ওভারফ্লোগুলি এড়িয়ে যায়।পূর্বশর্ত
axes
প্রতিটি মান অবশ্যই রেঞ্জ-rank..<rank
।ঘোষণা
@differentiable(wrt: self) public func logSumExp(squeezingAxes axes: Tensor<Int32>) -> Tensor
পরামিতি
axes
মাত্রা কমাতে.
রিটার্নস
log(exp(self).sum(squeezingAxes: axes))
। হ্রাস মাত্রা সরানো হয়।এই ফাংশনটি সরাসরি কম্পিউটিং
log(exp(self).sum(squeezingAxes: axes))
। এটি ছোট ইনপুটগুলিরlog
কম্পিউটিংয়ের মাধ্যমে বৃহত ইনপুট এবং আন্ডারফ্লোগুলিরexp
গণনা করার ফলে ওভারফ্লোগুলি এড়িয়ে যায়।পূর্বশর্ত
axes
প্রতিটি মান অবশ্যই রেঞ্জ-rank..<rank
।ঘোষণা
@differentiable(wrt: self) public func logSumExp(squeezingAxes axes: [Int]) -> Tensor
পরামিতি
axes
মাত্রা কমাতে.
রিটার্নস
log(exp(self).sum(squeezingAxes: axes))
। হ্রাস মাত্রা সরানো হয়।এই ফাংশনটি সরাসরি কম্পিউটিং
log(exp(self).sum(squeezingAxes: axes))
। এটি ছোট ইনপুটগুলিরlog
কম্পিউটিংয়ের মাধ্যমে বৃহত ইনপুট এবং আন্ডারফ্লোগুলিরexp
গণনা করার ফলে ওভারফ্লোগুলি এড়িয়ে যায়।পূর্বশর্ত
axes
প্রতিটি মান অবশ্যই রেঞ্জ-rank..<rank
।ঘোষণা
@differentiable(wrt: self) public func logSumExp(squeezingAxes axes: Int...) -> Tensor
পরামিতি
axes
মাত্রা কমাতে.
রিটার্নস
log(exp(self).sum())
। ফলাফল একটি স্কেলার।এই ফাংশনটি সরাসরি কম্পিউটিং
log(exp(self).sum())
এর চেয়ে বেশি সংখ্যার স্থিতিশীল। এটি ছোট ইনপুটগুলিরlog
কম্পিউটিংয়ের মাধ্যমে বৃহত ইনপুট এবং আন্ডারফ্লোগুলিরexp
গণনা করার ফলে ওভারফ্লোগুলি এড়িয়ে যায়।ঘোষণা
@differentiable(wrt: self) public func logSumExp() -> Tensor
রিটার্নস
log(exp(self).sum(alongAxes: axes))
। হ্রাস মাত্রা মান1
দিয়ে ধরে রাখা হয়।এই ফাংশনটি সরাসরি কম্পিউটিং
log(exp(self).sum(alongAxes: axes))
। এটি ছোট ইনপুটগুলিরlog
কম্পিউটিংয়ের মাধ্যমে বৃহত ইনপুট এবং আন্ডারফ্লোগুলিরexp
গণনা করার ফলে ওভারফ্লোগুলি এড়িয়ে যায়।পূর্বশর্ত
axes
প্রতিটি মান অবশ্যই রেঞ্জ-rank..<rank
।ঘোষণা
@differentiable(wrt: self) public func logSumExp(alongAxes axes: Tensor<Int32>) -> Tensor
পরামিতি
axes
মাত্রা কমাতে.
রিটার্নস
log(exp(self).sum(alongAxes: axes))
। হ্রাস মাত্রা মান1
দিয়ে ধরে রাখা হয়।এই ফাংশনটি সরাসরি কম্পিউটিং
log(exp(self).sum(alongAxes: axes))
। এটি ছোট ইনপুটগুলিরlog
কম্পিউটিংয়ের মাধ্যমে বৃহত ইনপুট এবং আন্ডারফ্লোগুলিরexp
গণনা করার ফলে ওভারফ্লোগুলি এড়িয়ে যায়।পূর্বশর্ত
axes
প্রতিটি মান অবশ্যই রেঞ্জ-rank..<rank
।ঘোষণা
@differentiable(wrt: self) public func logSumExp(alongAxes axes: [Int]) -> Tensor
পরামিতি
axes
মাত্রা কমাতে.
রিটার্নস
log(exp(self).sum(alongAxes: axes))
। হ্রাস মাত্রা মান1
দিয়ে ধরে রাখা হয়।এই ফাংশনটি সরাসরি কম্পিউটিং
log(exp(self).sum(alongAxes: axes))
। এটি ছোট ইনপুটগুলিরlog
কম্পিউটিংয়ের মাধ্যমে বৃহত ইনপুট এবং আন্ডারফ্লোগুলিরexp
গণনা করার ফলে ওভারফ্লোগুলি এড়িয়ে যায়।পূর্বশর্ত
axes
প্রতিটি মান অবশ্যই রেঞ্জ-rank..<rank
।ঘোষণা
@differentiable(wrt: self) public func logSumExp(alongAxes axes: Int...) -> Tensor
পরামিতি
axes
মাত্রা কমাতে.
নির্দিষ্ট অক্ষগুলি বরাবর এই টেনসারের গড় এবং বৈকল্পিকতা প্রদান করে। হ্রাস মাত্রা সরানো হয়।
পূর্বশর্ত
axes
অবশ্যই1
র্যাঙ্ক থাকতে হবে।পূর্বশর্ত
axes
প্রতিটি মান অবশ্যই রেঞ্জ-rank..<rank
।ঘোষণা
@differentiable(wrt: self) public func moments(squeezingAxes axes: Tensor<Int32>) -> Moments<Scalar>
পরামিতি
axes
মাত্রা কমাতে.
নির্দিষ্ট অক্ষগুলি বরাবর এই টেনসারের গড় এবং বৈকল্পিকতা প্রদান করে। হ্রাস মাত্রা সরানো হয়।
পূর্বশর্ত
axes
প্রতিটি মান অবশ্যই রেঞ্জ-rank..<rank
।ঘোষণা
@differentiable(wrt: self) public func moments(squeezingAxes axes: [Int]) -> Moments<Scalar>
পরামিতি
axes
মাত্রা কমাতে.
নির্দিষ্ট অক্ষগুলি বরাবর এই টেনসারের গড় এবং বৈকল্পিকতা প্রদান করে। হ্রাস মাত্রা সরানো হয়।
পূর্বশর্ত
axes
প্রতিটি মান অবশ্যই রেঞ্জ-rank..<rank
।ঘোষণা
@differentiable(wrt: self) public func moments(squeezingAxes axes: Int...) -> Moments<Scalar>
পরামিতি
axes
মাত্রা কমাতে.
এই টেনসারের উপাদানগুলির গড় এবং বৈকল্পিকতা প্রদান করে।
ঘোষণা
@differentiable(wrt: self) public func moments() -> Moments<Scalar>
নির্দিষ্ট অক্ষগুলি বরাবর এই টেনসারের গড় এবং বৈকল্পিকতা প্রদান করে। হ্রাস মাত্রা মান
1
দিয়ে ধরে রাখা হয়।পূর্বশর্ত
axes
অবশ্যই1
র্যাঙ্ক থাকতে হবে।পূর্বশর্ত
axes
প্রতিটি মান অবশ্যই রেঞ্জ-rank..<rank
।ঘোষণা
@differentiable(wrt: self) public func moments(alongAxes axes: Tensor<Int32>) -> Moments<Scalar>
পরামিতি
axes
মাত্রা কমাতে.
নির্দিষ্ট অক্ষগুলি বরাবর এই টেনসারের গড় এবং বৈকল্পিকতা প্রদান করে। হ্রাস মাত্রা মান
1
দিয়ে ধরে রাখা হয়।পূর্বশর্ত
axes
প্রতিটি মান অবশ্যই রেঞ্জ-rank..<rank
।ঘোষণা
@differentiable(wrt: self) public func moments(alongAxes axes: [Int]) -> Moments<Scalar>
পরামিতি
axes
মাত্রা কমাতে.
নির্দিষ্ট অক্ষগুলি বরাবর এই টেনসারের গড় এবং বৈকল্পিকতা প্রদান করে। হ্রাস মাত্রা মান
1
দিয়ে ধরে রাখা হয়।পূর্বশর্ত
axes
প্রতিটি মান অবশ্যই রেঞ্জ-rank..<rank
।ঘোষণা
@differentiable(wrt: self) public func moments(alongAxes axes: Int...) -> Moments<Scalar>
পরামিতি
axes
মাত্রা কমাতে.
দুটি টেনসারের মধ্যে ম্যাট্রিক্স গুণনা সম্পাদন করে এবং ফলাফল তৈরি করে।
ঘোষণা
@differentiable public static func • (lhs: Tensor, rhs: Tensor) -> Tensor
ঘোষণা
static func vjpInitDeviceAndPrecisionLike( _ value: Scalar, deviceAndPrecisionLike tensor: Tensor ) -> (value: Tensor, pullback: (Tensor) -> (Scalar, Tensor))
নির্দিষ্ট অক্ষের সাথে ইনপুটটি ব্যাচ-নরমালাইজিং থেকে গণনা করা একটি টেনসরকে ফেরত দেয়।
বিশেষত, রিটার্নস
(self - mu) / (var + epsilon) * gamma + beta
যেখানেmu
এবংvar
যথাক্রমেaxis
সাথেself
-গড় এবং বৈচিত্র।ঘোষণা
@differentiable(wrt: (self, offset, scale) public func batchNormalized( alongAxis axis: Int, offset: Tensor = Tensor(0), scale: Tensor = Tensor(1), epsilon: Scalar = 0.001 ) -> Tensor
পরামিতি
axis
ব্যাচের মাত্রা।
offset
অফসেট, বিটা নামেও পরিচিত।
scale
স্কেল, গামা নামেও পরিচিত।
epsilon
সংখ্যার স্থায়িত্বের জন্য ডিনোমিনেটরে যুক্ত একটি ছোট মান।
শেষ অক্ষ বরাবর দুটি টেনারকে একত্রিত করে।
ঘোষণা
@differentiable public static func concatenate(_ lhs: Tensor, _ rhs: Tensor) -> Tensor
দুটি মান যুক্ত করে এবং তাদের যোগফল উত্পাদন করে।
ঘোষণা
@differentiable public static func sum(_ lhs: Tensor, _ rhs: Tensor) -> Tensor
গড় দুটি মান।
ঘোষণা
@differentiable public static func average(_ lhs: Tensor, _ rhs: Tensor) -> Tensor
দুটি মান গুণ করে।
ঘোষণা
@differentiable public static func multiply(_ lhs: Tensor, _ rhs: Tensor) -> Tensor
দুটি মান স্ট্যাক।
ঘোষণা
@differentiable public static func stack(_ lhs: Tensor, _ rhs: Tensor) -> Tensor
ঘোষণা
@derivative init(shape: scalars)
ঘোষণা
public static func == (lhs: Tensor, rhs: Tensor) -> Bool
ঘোষণা
public static func != (lhs: Tensor, rhs: Tensor) -> Bool
ঘোষণা
public func encode(to encoder: Encoder) throws
ঘোষণা
public init(from decoder: Decoder) throws
স্কেলার জিরো টেনসর।
ঘোষণা
public static var zero: Tensor { get }
দুটি টেনার যুক্ত করে এবং তাদের যোগফল উত্পাদন করে।
বিঃদ্রঃ
+
সম্প্রচার সমর্থন করে।ঘোষণা
@differentiable public static func + (lhs: Tensor, rhs: Tensor) -> Tensor
অন্য থেকে একটি টেনসর বিয়োগ করে এবং তাদের পার্থক্য তৈরি করে।
বিঃদ্রঃ
-
সম্প্রচার সমর্থন করে।ঘোষণা
@differentiable public static func - (lhs: Tensor, rhs: Tensor) -> Tensor
স্কেলার ওয়ান টেনসর।
ঘোষণা
public static var one: Tensor { get }
স্ব-
self
-স্ব-স্বীকৃতি প্রদান করে।ঘোষণা
public var reciprocal: Tensor { get }
দুটি টেনসর উপাদান-ভিত্তিক গুণ করে এবং তাদের পণ্য উত্পাদন করে।
বিঃদ্রঃ
.*
সম্প্রচার সমর্থন করে।ঘোষণা
public static func .* (lhs: Tensor, rhs: Tensor) -> Tensor
ঘোষণা
public typealias TangentVector = Tensor
ঘোষণা
public var zeroTangentVectorInitializer: () -> TangentVector { get }
একটি টীকা যোগ করে।
দ্রষ্টব্য: কেবল এক্স 10 সমর্থিত। অন্যান্য ব্যাকেন্ডের জন্য, উমোডাইফাইড
self
ফিরে আসে।ঘোষণা
@differentiable(wrt: self) public func annotate(_ annotation: String) -> Tensor<Scalar>
পরামিতি
annotation
টীকা যুক্ত করা হবে।
ফেরত মূল্য
টীকাযুক্ত টেনসর।
ঘোষণা
@derivative func vjpAnnotate(_ annotation: String) -> ( value: Tensor<Scalar>, pullback: (Tensor<Scalar>) -> Tensor<Scalar> )