کارکرد

توابع زیر به صورت جهانی در دسترس هستند.

  • ضرر L1 بین پیش بینی ها و انتظارات را برمی گرداند.

    اعلام

    @differentiable(wrt: predicted)
    @differentiable(wrt: (predicted, expected)
    public func l1Loss<Scalar: TensorFlowFloatingPoint>(
      predicted: Tensor<Scalar>,
      expected: Tensor<Scalar>
    ) -> Tensor<Scalar>

    مولفه های

    predicted

    خروجی های پیش بینی شده از یک شبکه عصبی

    expected

    مقادیر مورد انتظار، یعنی اهداف، که با خروجی صحیح مطابقت دارند.

  • ضرر L2 بین پیش بینی ها و انتظارات را برمی گرداند.

    اعلام

    @differentiable(wrt: predicted)
    @differentiable(wrt: (predicted, expected)
    public func l2Loss<Scalar: TensorFlowFloatingPoint>(
      predicted: Tensor<Scalar>,
      expected: Tensor<Scalar>
    ) -> Tensor<Scalar>

    مولفه های

    predicted

    خروجی های پیش بینی شده از یک شبکه عصبی

    expected

    مقادیر مورد انتظار، یعنی اهداف، که با خروجی صحیح مطابقت دارند.

  • ضرر لولای بین پیش بینی ها و انتظارات را برمی گرداند.

    اعلام

    @differentiable(wrt: predicted)
    @differentiable(wrt: (predicted, expected)
    public func hingeLoss<Scalar: TensorFlowFloatingPoint>(
      predicted: Tensor<Scalar>,
      expected: Tensor<Scalar>
    ) -> Tensor<Scalar>

    مولفه های

    predicted

    خروجی های پیش بینی شده از یک شبکه عصبی

    expected

    مقادیر مورد انتظار، یعنی اهداف، که با خروجی صحیح مطابقت دارند.

  • تلفات لولای مجذور بین پیش‌بینی‌ها و انتظارات را برمی‌گرداند.

    اعلام

    @differentiable(wrt: predicted)
    @differentiable(wrt: (predicted, expected)
    public func squaredHingeLoss<Scalar: TensorFlowFloatingPoint>(
      predicted: Tensor<Scalar>,
      expected: Tensor<Scalar>
    ) -> Tensor<Scalar>

    مولفه های

    predicted

    خروجی های پیش بینی شده از یک شبکه عصبی

    expected

    مقادیر مورد انتظار، یعنی اهداف، که با خروجی صحیح مطابقت دارند.

  • تلفات لولای طبقه بندی شده بین پیش بینی ها و انتظارات را برمی گرداند.

    اعلام

    @differentiable(wrt: predicted)
    @differentiable(wrt: (predicted, expected)
    public func categoricalHingeLoss<Scalar: TensorFlowFloatingPoint>(
      predicted: Tensor<Scalar>,
      expected: Tensor<Scalar>
    ) -> Tensor<Scalar>

    مولفه های

    predicted

    خروجی های پیش بینی شده از یک شبکه عصبی

    expected

    مقادیر مورد انتظار، یعنی اهداف، که با خروجی صحیح مطابقت دارند.

  • لگاریتم کسینوس هذلولی خطای بین پیش‌بینی‌ها و انتظارات را برمی‌گرداند.

    اعلام

    @differentiable(wrt: predicted)
    @differentiable(wrt: (predicted, expected)
    public func logCoshLoss<Scalar: TensorFlowFloatingPoint>(
      predicted: Tensor<Scalar>,
      expected: Tensor<Scalar>
    ) -> Tensor<Scalar>

    مولفه های

    predicted

    خروجی های پیش بینی شده از یک شبکه عصبی

    expected

    مقادیر مورد انتظار، یعنی اهداف، که با خروجی صحیح مطابقت دارند.

  • ضرر پواسون را بین پیش‌بینی‌ها و انتظارات برمی‌گرداند.

    اعلام

    @differentiable(wrt: predicted)
    @differentiable(wrt: (predicted, expected)
    public func poissonLoss<Scalar: TensorFlowFloatingPoint>(
      predicted: Tensor<Scalar>,
      expected: Tensor<Scalar>
    ) -> Tensor<Scalar>

    مولفه های

    predicted

    خروجی های پیش بینی شده از یک شبکه عصبی

    expected

    مقادیر مورد انتظار، یعنی اهداف، که با خروجی صحیح مطابقت دارند.

  • واگرایی Kullback-Leibler (واگرایی KL) بین انتظارات و پیش‌بینی‌ها را برمی‌گرداند. با توجه به دو توزیع p و q ، واگرایی KL p * log(p / q) را محاسبه می کند.

    اعلام

    @differentiable(wrt: predicted)
    @differentiable(wrt: (predicted, expected)
    public func kullbackLeiblerDivergence<Scalar: TensorFlowFloatingPoint>(
      predicted: Tensor<Scalar>,
      expected: Tensor<Scalar>
    ) -> Tensor<Scalar>

    مولفه های

    predicted

    خروجی های پیش بینی شده از یک شبکه عصبی

    expected

    مقادیر مورد انتظار، یعنی اهداف، که با خروجی صحیح مطابقت دارند.

  • آنتروپی متقاطع softmax (آنتروپی متقاطع طبقه‌ای) بین لاجیت‌ها و برچسب‌ها را برمی‌گرداند.

    اعلام

    @differentiable(wrt: logits)
    public func softmaxCrossEntropy<Scalar: TensorFlowFloatingPoint>(
      logits: Tensor<Scalar>,
      probabilities: Tensor<Scalar>
    ) -> Tensor<Scalar>

    مولفه های

    logits

    خروجی های کدگذاری شده یک گرم از یک شبکه عصبی.

    labels

    شاخص های (صفر شاخص) خروجی های صحیح.

  • آنتروپی متقاطع سیگموئید (آنتروپی متقاطع باینری) بین لاجیت ها و برچسب ها را برمی گرداند.

    اعلام

    @differentiable(wrt: logits)
    @differentiable(wrt: (logits, labels)
    public func sigmoidCrossEntropy<Scalar: TensorFlowFloatingPoint>(
      logits: Tensor<Scalar>,
      labels: Tensor<Scalar>
    ) -> Tensor<Scalar>

    مولفه های

    logits

    خروجی مقیاس نشده یک شبکه عصبی

    labels

    مقادیر صحیحی که با خروجی صحیح مطابقت دارند.

  • تانسوری را با همان شکل و اسکالرهای تانسور مشخص شده برمی‌گرداند.

    اعلام

    @differentiable
    public func identity<Scalar>(_ x: Tensor<Scalar>) -> Tensor<Scalar> where Scalar : TensorFlowScalar
  • بسته شدن داده شده را در زمینه ای می نامد که همه چیز با زمینه فعلی یکسان است به جز مرحله یادگیری داده شده.

    اعلام

    public func withContext<R>(_ context: Context, _ body: () throws -> R) rethrows -> R

    مولفه های

    context

    زمینه ای که قبل از فراخوانی بسته شدن تنظیم می شود و پس از بازگشت بسته شدن بازیابی می شود.

    body

    یک بسته شدن پوچ اگر بسته دارای مقدار بازگشتی باشد، آن مقدار به عنوان مقدار بازگشتی تابع withContext(_:_:) نیز استفاده می شود.

    ارزش بازگشتی

    مقدار بازگشتی، در صورت وجود، بسته شدن body .

  • بسته شدن داده شده را در زمینه ای می نامد که همه چیز با زمینه فعلی یکسان است به جز مرحله یادگیری داده شده.

    اعلام

    public func withLearningPhase<R>(
      _ learningPhase: LearningPhase,
      _ body: () throws -> R
    ) rethrows -> R

    مولفه های

    learningPhase

    مرحله یادگیری که قبل از فراخوانی بسته شدن تنظیم می شود و پس از بازگشت بسته شدن بازیابی می شود.

    body

    یک بسته شدن پوچ اگر بسته دارای مقدار بازگشتی باشد، از آن مقدار به عنوان مقدار بازگشتی تابع withLearningPhase(_:_:) نیز استفاده می شود.

    ارزش بازگشتی

    مقدار بازگشتی، در صورت وجود، بسته شدن body .

  • بسته شدن داده شده را در زمینه ای فراخوانی می کند که همه چیز با زمینه فعلی یکسان است به جز دانه تصادفی داده شده.

    اعلام

    public func withRandomSeedForTensorFlow<R>(
      _ randomSeed: TensorFlowSeed,
      _ body: () throws -> R
    ) rethrows -> R

    مولفه های

    randomSeed

    یک دانه تصادفی که قبل از بسته شدن تنظیم می شود، فراخوانی می شود و پس از بازگشت بسته شدن بازیابی می شود.

    body

    یک بسته شدن پوچ اگر بسته دارای مقدار بازگشتی باشد، آن مقدار به عنوان مقدار بازگشتی تابع withRandomSeedForTensorFlow(_:_:) نیز استفاده می شود.

    ارزش بازگشتی

    مقدار بازگشتی، در صورت وجود، بسته شدن body .

  • بسته شدن داده شده را در زمینه ای فراخوانی می کند که همه چیز با زمینه فعلی یکسان است به جز مولد اعداد تصادفی داده شده.

    اعلام

    public func withRandomNumberGeneratorForTensorFlow<G: RandomNumberGenerator, R>(
      _ randomNumberGenerator: inout G,
      _ body: () throws -> R
    ) rethrows -> R

    مولفه های

    randomNumberGenerator

    یک مولد اعداد تصادفی که قبل از بسته شدن تنظیم می شود، فراخوانی می شود و پس از بازگشت بسته شدن بازیابی می شود.

    body

    یک بسته شدن پوچ اگر بسته دارای مقدار بازگشتی باشد، آن مقدار به عنوان مقدار بازگشتی تابع withRandomNumberGeneratorForTensorFlow(_:_:) نیز استفاده می شود.

    ارزش بازگشتی

    مقدار بازگشتی، در صورت وجود، بسته شدن body .

  • اعلام

    public func zip<T: TensorGroup, U: TensorGroup>(
      _ dataset1: Dataset<T>, _ dataset2: Dataset<U>
    ) -> Dataset<Zip2TensorGroup<T, U>>
  • LazyTensorBarrier تضمین می کند که همه تانسورهای زنده (در صورت ارائه در دستگاه) برنامه ریزی شده و در حال اجرا هستند. اگر انتظار روی true تنظیم شود، این تماس تا زمانی که محاسبه کامل شود مسدود می شود.

    اعلام

    public func LazyTensorBarrier(on device: Device? = nil, devices: [Device] = [], wait: Bool = false)
  • اعلام

    public func valueWithGradient<T, R>(
      at x: T,
      in f: @differentiable (T) -> Tensor<R>
    ) -> (value: Tensor<R>, gradient: T.TangentVector)
    where T: Differentiable, R: TensorFlowFloatingPoint
  • اعلام

    public func valueWithGradient<T, U, R>(
      at x: T,
      _ y: U,
      in f: @differentiable (T, U) -> Tensor<R>
    ) -> (value: Tensor<R>, gradient: (T.TangentVector, U.TangentVector))
    where T: Differentiable, U: Differentiable, R: TensorFlowFloatingPoint
  • اعلام

    public func valueWithGradient<T, U, V, R>(
      at x: T,
      _ y: U,
      _ z: V,
      in f: @differentiable (T, U, V) -> Tensor<R>
    ) -> (value: Tensor<R>, gradient: (T.TangentVector, U.TangentVector, V.TangentVector))
    where T: Differentiable, U: Differentiable, V: Differentiable, R: TensorFlowFloatingPoint
  • اعلام

    public func valueWithGradient<T, R>(
      of f: @escaping @differentiable (T) -> Tensor<R>
    ) -> (T) -> (value: Tensor<R>, gradient: T.TangentVector)
    where T: Differentiable, R: TensorFlowFloatingPoint
  • اعلام

    public func valueWithGradient<T, U, R>(
      of f: @escaping @differentiable (T, U) -> Tensor<R>
    ) -> (T, U) -> (value: Tensor<R>, gradient: (T.TangentVector, U.TangentVector))
    where T: Differentiable, U: Differentiable, R: TensorFlowFloatingPoint
  • اعلام

    public func valueWithGradient<T, U, V, R>(
      of f: @escaping @differentiable (T, U, V) -> Tensor<R>
    ) -> (T, U, V) -> (
      value: Tensor<R>,
      gradient: (T.TangentVector, U.TangentVector, V.TangentVector)
    )
    where T: Differentiable, U: Differentiable, V: Differentiable, R: TensorFlowFloatingPoint
  • اعلام

    public func gradient<T, R>(
      at x: T,
      in f: @differentiable (T) -> Tensor<R>
    ) -> T.TangentVector where T: Differentiable, R: TensorFlowFloatingPoint
  • اعلام

    public func gradient<T, U, R>(
      at x: T,
      _ y: U,
      in f: @differentiable (T, U) -> Tensor<R>
    ) -> (T.TangentVector, U.TangentVector)
    where T: Differentiable, U: Differentiable, R: TensorFlowFloatingPoint
  • اعلام

    public func gradient<T, U, V, R>(
      at x: T,
      _ y: U,
      _ z: V,
      in f: @differentiable (T, U, V) -> Tensor<R>
    ) -> (T.TangentVector, U.TangentVector, V.TangentVector)
    where T: Differentiable, U: Differentiable, V: Differentiable, R: TensorFlowFloatingPoint
  • اعلام

    public func gradient<T, R>(
      of f: @escaping @differentiable (T) -> Tensor<R>
    ) -> (T) -> T.TangentVector where T: Differentiable, R: TensorFlowFloatingPoint
  • اعلام

    public func gradient<T, U, R>(
      of f: @escaping @differentiable (T, U) -> Tensor<R>
    ) -> (T, U) -> (T.TangentVector, U.TangentVector)
    where T: Differentiable, U: Differentiable, R: TensorFlowFloatingPoint
  • اعلام

    public func gradient<T, U, V, R>(
      of f: @escaping @differentiable (T, U, V) -> Tensor<R>
    ) -> (T, U, V) -> (T.TangentVector, U.TangentVector, V.TangentVector)
    where T: Differentiable, U: Differentiable, V: Differentiable, R: TensorFlowFloatingPoint
  • کاری کنید که یک تابع در pullback خود مجدداً محاسبه شود، که در تمایز خودکار سنتی به عنوان "چک پوینت" شناخته می شود.

    اعلام

    public func withRecomputationInPullbacks<T, U>(
      _ body: @escaping @differentiable (T) -> U
    ) -> @differentiable (T) -> U where T : Differentiable, U : Differentiable
  • یک تابع متمایز از یک تابع محصولات بردار-ژاکوبین ایجاد کنید.

    اعلام

    public func differentiableFunction<T : Differentiable, R : Differentiable>(
      from vjp: @escaping (T)
               -> (value: R, pullback: (R.TangentVector) -> T.TangentVector)
    ) -> @differentiable (T) -> R
  • یک تابع متمایز از یک تابع محصولات بردار-ژاکوبین ایجاد کنید.

    اعلام

    public func differentiableFunction<T, U, R>(
      from vjp: @escaping (T, U)
               -> (value: R, pullback: (R.TangentVector)
                 -> (T.TangentVector, U.TangentVector))
    ) -> @differentiable (T, U) -> R
  • x مانند یک تابع هویت برمی گرداند. وقتی در زمینه ای استفاده می شود که x با توجه به آن متمایز می شود، این تابع هیچ مشتقی در x تولید نمی کند.

    اعلام

    @_semantics("autodiff.nonvarying")
    public func withoutDerivative<T>(at x: T) -> T
  • body بسته شدن داده شده را به x اعمال می کند. وقتی در زمینه ای استفاده می شود که x با توجه به آن متمایز می شود، این تابع هیچ مشتقی در x تولید نمی کند.

    اعلام

    @_semantics("autodiff.nonvarying")
    public func withoutDerivative<T, R>(at x: T, in body: (T) -> R) -> R
  • بسته شدن را اجرا می کند و باعث می شود عملیات TensorFlow بر روی نوع خاصی از دستگاه اجرا شود.

    اعلام

    public func withDevice<R>(
      _ kind: DeviceKind,
      _ index: UInt = 0,
      perform body: () throws -> R
    ) rethrows -> R

    مولفه های

    kind

    نوعی دستگاه برای اجرای عملیات تنسورفلو.

    index

    دستگاهی برای اجرای عملیات

    body

    بسته شدنی که عملیات TensorFlow باید در نوع مشخص شده دستگاه اجرا شود.

  • بسته شدن را اجرا می کند و باعث می شود عملیات TensorFlow روی دستگاهی با نام خاصی اجرا شود.

    چند نمونه از نام دستگاه ها:

    • “/device:CPU:0”: CPU دستگاه شما.
    • "/GPU:0": نماد کوتاه برای اولین GPU دستگاه شما که برای TensorFlow قابل مشاهده است
    • «/job:localhost/replica:0/task:0/device:GPU:1»: نام کاملاً واجد شرایط دومین GPU دستگاه شما که برای TensorFlow قابل مشاهده است.

    اعلام

    public func withDevice<R>(named name: String, perform body: () throws -> R) rethrows -> R

    مولفه های

    name

    نام دستگاه.

    body

    بسته شدنی که عملیات TensorFlow باید در نوع مشخص شده دستگاه اجرا شود.

  • یک بسته را اجرا می کند و به TensorFlow اجازه می دهد تا عملیات TensorFlow را روی هر دستگاهی قرار دهد. این باید رفتار قرار دادن پیش فرض را بازیابی کند.

    اعلام

    public func withDefaultDevice<R>(perform body: () throws -> R) rethrows -> R

    مولفه های

    body

    بسته شدنی که عملیات TensorFlow باید در نوع مشخص شده دستگاه اجرا شود.

  • اندازه تصاویر را با استفاده از روش مشخص شده به اندازه تغییر دهید.

    پیش شرط

    تصاویر باید دارای رتبه 3 یا 4 باشند.

    پیش شرط

    اندازه باید مثبت باشد.

    اعلام

    @differentiable(wrt: images)
    public func resize(
      images: Tensor<Float>,
      size: (newHeight: Int, newWidth: Int),
      method: ResizeMethod = .bilinear,
      antialias: Bool = false
    ) -> Tensor<Float>

    مولفه های

    images

    Tensor 4 بعدی شکل [batch, height, width, channels] یا Tensor 3 بعدی شکل [height, width, channels] .

    size

    اندازه جدید تصاویر.

    method

    روش تغییر اندازه مقدار پیش فرض .bilinear است.

    antialias

    اگر true ، هنگام پایین‌نمونه‌برداری از یک تصویر، از یک فیلتر ضد aliasing استفاده کنید.

  • با استفاده از درون یابی ناحیه، اندازه تصاویر را به اندازه تغییر دهید.

    پیش شرط

    تصاویر باید دارای رتبه 3 یا 4 باشند.

    پیش شرط

    اندازه باید مثبت باشد.

    اعلام

    public func resizeArea<Scalar: TensorFlowNumeric>(
      images: Tensor<Scalar>,
      size: (newHeight: Int, newWidth: Int),
      alignCorners: Bool = false
    ) -> Tensor<Float>

    مولفه های

    images

    Tensor 4 بعدی شکل [batch, height, width, channels] یا Tensor 3 بعدی شکل [height, width, channels] .

    size

    اندازه جدید تصاویر.

  • اتساع دوبعدی را با ورودی، فیلتر، گام‌ها و بالشتک مشخص شده برمی‌گرداند.

    پیش شرط

    input باید دارای رتبه 4 باشد.

    پیش شرط

    filter باید دارای رتبه 3 باشد.

    اعلام

    @differentiable(wrt: (input, filter)
    public func dilation2D<Scalar: TensorFlowFloatingPoint>(
      _ input: Tensor<Scalar>,
      filter: Tensor<Scalar>,
      strides: (Int, Int, Int, Int) = (1, 1, 1, 1),
      rates: (Int, Int, Int, Int) = (1, 1, 1, 1),
      padding: Padding = .valid
    ) -> Tensor<Scalar>

    مولفه های

    input

    ورودی.

    filter

    فیلتر اتساع

    strides

    گام های فیلتر کشویی برای هر بعد ورودی.

    padding

    بالشتک برای عملیات

    rates

    نرخ اتساع برای هر بعد از ورودی.

  • فرسایش 2 بعدی را با ورودی، فیلتر، گام‌ها و بالشتک مشخص شده برمی‌گرداند.

    پیش شرط

    input باید دارای رتبه 4 باشد.

    پیش شرط

    filter باید دارای رتبه 3 باشد.

    اعلام

    @differentiable(wrt: (input, filter)
    public func erosion2D<Scalar: TensorFlowFloatingPoint>(
      _ input: Tensor<Scalar>,
      filter: Tensor<Scalar>,
      strides: (Int, Int, Int, Int) = (1, 1, 1, 1),
      rates: (Int, Int, Int, Int) = (1, 1, 1, 1),
      padding: Padding = .valid
    ) -> Tensor<Scalar>

    مولفه های

    input

    ورودی.

    filter

    فیلتر فرسایش

    strides

    گام های فیلتر کشویی برای هر بعد ورودی.

    padding

    بالشتک برای عملیات

    rates

    نرخ اتساع برای هر بعد از ورودی.

  • تابعی را برمی‌گرداند که یک تانسور با مقداردهی اولیه تمام مقادیر آن به صفر می‌سازد.

    اعلام

    public func zeros<Scalar>() -> ParameterInitializer<Scalar> where Scalar : TensorFlowFloatingPoint
  • تابعی را برمی‌گرداند که یک تانسور با مقداردهی اولیه تمام مقادیر آن به مقدار ارائه شده ایجاد می‌کند.

    اعلام

    public func constantInitializer<Scalar: TensorFlowFloatingPoint>(
      value: Scalar
    ) -> ParameterInitializer<Scalar>
  • تابعی را برمی‌گرداند که با مقداردهی اولیه یک تانسور ایجاد می‌کند. توجه داشته باشید که پخش مقدار ارائه شده پشتیبانی نمی شود.

    اعلام

    public func constantInitializer<Scalar: TensorFlowFloatingPoint>(
      value: Tensor<Scalar>
    ) -> ParameterInitializer<Scalar>
  • تابعی را برمی‌گرداند که با انجام مقداردهی اولیه یکنواخت Glorot (Xavier) برای شکل مشخص شده، نمونه‌برداری تصادفی مقادیر اسکالر از توزیع یکنواخت بین -limit و limit ، ایجاد شده توسط مولد اعداد تصادفی پیش‌فرض، که حد آن sqrt(6 / (fanIn + fanOut)) و fanIn / fanOut نشان دهنده تعداد ویژگی های ورودی و خروجی ضرب در فیلد گیرنده، در صورت وجود است.

    اعلام

    public func glorotUniform<Scalar: TensorFlowFloatingPoint>(
      seed: TensorFlowSeed = Context.local.randomSeed
    ) -> ParameterInitializer<Scalar>
  • تابعی را برمی‌گرداند که با انجام مقداردهی اولیه Glorot (Xavier) برای شکل مشخص شده، نمونه‌برداری تصادفی مقادیر اسکالر از یک توزیع نرمال کوتاه شده با مرکز 0 با انحراف استاندارد sqrt(2 / (fanIn + fanOut)) ایجاد می‌کند، که در آن fanIn / fanOut نشان دهنده تعداد ویژگی های ورودی و خروجی ضرب در اندازه میدان پذیرنده در صورت وجود است.

    اعلام

    public func glorotNormal<Scalar: TensorFlowFloatingPoint>(
      seed: TensorFlowSeed = Context.local.randomSeed
    ) -> ParameterInitializer<Scalar>
  • تابعی را برمی‌گرداند که با انجام مقداردهی اولیه یکنواخت He (Kaiming) برای شکل مشخص شده، نمونه‌برداری تصادفی مقادیر اسکالر از توزیع یکنواخت بین -limit و limit ، ایجاد شده توسط مولد اعداد تصادفی پیش‌فرض، که حد آن sqrt(6 / fanIn) است، یک تانسور ایجاد می‌کند. sqrt(6 / fanIn) و fanIn نشان دهنده تعداد ویژگی های ورودی ضرب در فیلد گیرنده است، در صورت وجود.

    اعلام

    public func heUniform<Scalar: TensorFlowFloatingPoint>(
      seed: TensorFlowSeed = Context.local.randomSeed
    ) -> ParameterInitializer<Scalar>
  • تابعی را برمی‌گرداند که با انجام مقداردهی اولیه He (Kaiming) برای شکل مشخص شده، نمونه‌برداری تصادفی مقادیر اسکالر از یک توزیع نرمال کوتاه شده در مرکز 0 با انحراف استاندارد sqrt(2 / fanIn) ایجاد می‌کند، که در آن fanIn تعداد ویژگی‌های ورودی را نشان می‌دهد. در صورت وجود، در اندازه میدان پذیرنده ضرب می شود.

    اعلام

    public func heNormal<Scalar: TensorFlowFloatingPoint>(
      seed: TensorFlowSeed = Context.local.randomSeed
    ) -> ParameterInitializer<Scalar>
  • تابعی را برمی‌گرداند که با انجام مقداردهی اولیه یکنواخت LeCun برای شکل مشخص شده، نمونه‌برداری تصادفی مقادیر اسکالر از یک توزیع یکنواخت بین -limit و limit ، ایجاد شده توسط مولد اعداد تصادفی پیش‌فرض، که حد آن sqrt(3 / fanIn) است، یک تانسور ایجاد می‌کند. fanIn تعداد ویژگی های ورودی ضرب در فیلد گیرنده را در صورت وجود نشان می دهد.

    اعلام

    public func leCunUniform<Scalar: TensorFlowFloatingPoint>(
      seed: TensorFlowSeed = Context.local.randomSeed
    ) -> ParameterInitializer<Scalar>
  • تابعی را برمی‌گرداند که یک تانسور را با انجام مقداردهی اولیه LeCun برای شکل مشخص شده، نمونه‌برداری تصادفی مقادیر اسکالر از یک توزیع نرمال کوتاه شده در مرکز 0 با انحراف استاندارد sqrt(1 / fanIn) ایجاد می‌کند، که در آن fanIn تعداد ویژگی‌های ورودی را در ضرب نشان می‌دهد. اندازه میدان پذیرنده، در صورت وجود.

    اعلام

    public func leCunNormal<Scalar: TensorFlowFloatingPoint>(
      seed: TensorFlowSeed = Context.local.randomSeed
    ) -> ParameterInitializer<Scalar>
  • تابعی را برمی‌گرداند که یک تانسور را با مقداردهی اولیه همه مقادیر آن به طور تصادفی از یک توزیع Normal کوتاه شده ایجاد می‌کند. مقادیر تولید شده از توزیع نرمال با mean و standardDeviation استاندارد پیروی می کنند، با این تفاوت که مقادیری که بزرگی آنها بیش از دو انحراف استاندارد از میانگین است حذف شده و مجدداً نمونه برداری می شوند.

    اعلام

    public func truncatedNormalInitializer<Scalar: TensorFlowFloatingPoint>(
      mean: Tensor<Scalar> = Tensor<Scalar>(0),
      standardDeviation: Tensor<Scalar> = Tensor<Scalar>(1),
      seed: TensorFlowSeed = Context.local.randomSeed
    ) -> ParameterInitializer<Scalar>

    مولفه های

    mean

    میانگین توزیع نرمال

    standardDeviation

    انحراف معیار توزیع نرمال

    ارزش بازگشتی

    یک تابع اولیه کننده پارامتر معمولی کوتاه شده.

  • اعلام

    public func == (lhs: TFETensorHandle, rhs: TFETensorHandle) -> Bool
  • یک ماتریس هویت یا دسته ای از ماتریس ها را برمی گرداند.

    اعلام

    public func eye<Scalar: Numeric>(
      rowCount: Int,
      columnCount: Int? = nil,
      batchShape: [Int] = [],
      on device: Device = .default
    ) -> Tensor<Scalar>

    مولفه های

    rowCount

    تعداد ردیف ها در هر ماتریس دسته ای.

    columnCount

    تعداد ستون ها در هر ماتریس دسته ای.

    batchShape

    ابعاد دسته اصلی تانسور برگشتی.

  • ردیابی یک ماتریس دسته‌ای اختیاری را محاسبه می‌کند. ردیابی مجموع در امتداد قطر اصلی هر ماتریس داخلی است.

    ورودی یک تانسور با شکل [..., M, N] است. خروجی یک تانسور با شکل [...] است.

    پیش شرط

    matrix باید یک تانسور با شکل [..., M, N] باشد.

    اعلام

    @differentiable(wrt: matrix)
    public func trace<T>(_ matrix: Tensor<T>) -> Tensor<T> where T : Numeric, T : TensorFlowScalar

    مولفه های

    matrix

    تانسور شکل [..., M, N] .

  • تجزیه Cholesky یک یا چند ماتریس مربع را برمی‌گرداند.

    ورودی یک تانسور شکل [..., M, M] است که دو بعد داخلی آن ماتریس های مربعی را تشکیل می دهند.

    ورودی باید متقارن و مثبت باشد. فقط قسمت مثلث پایین ورودی برای این عملیات استفاده خواهد شد. قسمت مثلث بالا خوانده نمی شود.

    خروجی تانسوری است به همان شکل ورودی حاوی تجزیه های Cholesky برای همه زیرماتریس های ورودی [..., :, :] .

    اعلام

    @differentiable
    public func cholesky<T>(_ x: Tensor<T>) -> Tensor<T> where T : TensorFlowFloatingPoint

    مولفه های

    input

    یک تانسور شکل [..., M, M] .

  • جواب x را به سیستم معادلات خطی که با Ax = b نشان داده شده است برمی گرداند.

    پیش شرط

    matrix باید یک تانسور با شکل [..., M, M] باشد.

    پیش شرط

    rhs باید یک تانسور با شکل [..., M, K] باشد.

    اعلام

    @differentiable
    public func triangularSolve<T: TensorFlowFloatingPoint>(
      matrix: Tensor<T>,
      rhs: Tensor<T>,
      lower: Bool = true,
      adjoint: Bool = false
    ) -> Tensor<T>

    مولفه های

    matrix

    ماتریس ضریب مثلثی ورودی که A در Ax = b نشان می دهد.

    rhs

    مقادیر سمت راست، نشان دهنده b در Ax = b .

    lower

    آیا matrix مثلث پایینی ( true ) یا مثلث بالایی ( false ) است. مقدار پیش فرض true است .

    adjoint

    اگر true ، به جای matrix ، با الحاق matrix حل کنید. مقدار پیش فرض false است .

    ارزش بازگشتی

    جواب x به سیستم معادلات خطی نشان داده شده با Ax = b . x همان شکل b است.

  • ضرر L1 را بین expected و predicted محاسبه می کند. loss = reduction(abs(expected - predicted))

    اعلام

    @differentiable(wrt: predicted)
    @differentiable(wrt: (predicted, expected)
    public func l1Loss<Scalar: TensorFlowFloatingPoint>(
      predicted: Tensor<Scalar>,
      expected: Tensor<Scalar>,
      reduction: @differentiable (Tensor<Scalar>) -> Tensor<Scalar> = _sum
    ) -> Tensor<Scalar>

    مولفه های

    predicted

    خروجی های پیش بینی شده از یک شبکه عصبی

    expected

    مقادیر مورد انتظار، یعنی اهداف، که با خروجی صحیح مطابقت دارند.

    reduction

    کاهش برای اعمال بر روی مقادیر از دست دادن عناصر محاسبه شده.

  • تلفات L2 بین expected و predicted را محاسبه می کند. loss = reduction(square(expected - predicted))

    اعلام

    @differentiable(wrt: predicted)
    @differentiable(wrt: (predicted, expected)
    public func l2Loss<Scalar: TensorFlowFloatingPoint>(
      predicted: Tensor<Scalar>,
      expected: Tensor<Scalar>,
      reduction: @differentiable (Tensor<Scalar>) -> Tensor<Scalar> = _sum
    ) -> Tensor<Scalar>

    مولفه های

    predicted

    خروجی های پیش بینی شده از یک شبکه عصبی

    expected

    مقادیر مورد انتظار، یعنی اهداف، که با خروجی صحیح مطابقت دارند.

    reduction

    کاهش برای اعمال بر روی مقادیر از دست دادن عناصر محاسبه شده.

  • میانگین تفاوت مطلق بین برچسب ها و پیش بینی ها را محاسبه می کند. loss = mean(abs(expected - predicted))

    اعلام

    @differentiable(wrt: predicted)
    @differentiable(wrt: (predicted, expected)
    public func meanAbsoluteError<Scalar: TensorFlowFloatingPoint>(
      predicted: Tensor<Scalar>,
      expected: Tensor<Scalar>
    ) -> Tensor<Scalar>

    مولفه های

    predicted

    خروجی های پیش بینی شده از یک شبکه عصبی

    expected

    مقادیر مورد انتظار، یعنی اهداف، که با خروجی صحیح مطابقت دارند.

  • میانگین مربعات خطاهای بین برچسب ها و پیش بینی ها را محاسبه می کند. loss = mean(square(expected - predicted))

    اعلام

    @differentiable(wrt: predicted)
    @differentiable(wrt: (predicted, expected)
    public func meanSquaredError<Scalar: TensorFlowFloatingPoint>(
      predicted: Tensor<Scalar>,
      expected: Tensor<Scalar>
    ) -> Tensor<Scalar>

    مولفه های

    predicted

    خروجی های پیش بینی شده از یک شبکه عصبی

    expected

    مقادیر مورد انتظار، یعنی اهداف، که با خروجی صحیح مطابقت دارند.

  • میانگین مربعات خطای لگاریتمی را بین ضرر predicted و expected محاسبه می‌کند loss = square(log(expected) - log(predicted))

    توجه داشته باشید

    برای جلوگیری از رفتار لگاریتمی تعریف‌نشده، ورودی‌های تانسور منفی روی 0 گیره می‌شوند، زیرا log(_:) برای واقعی‌های منفی تعریف نشده است.

    اعلام

    @differentiable(wrt: predicted)
    @differentiable(wrt: (predicted, expected)
    public func meanSquaredLogarithmicError<Scalar: TensorFlowFloatingPoint>(
      predicted: Tensor<Scalar>,
      expected: Tensor<Scalar>
    ) -> Tensor<Scalar>

    مولفه های

    predicted

    خروجی های پیش بینی شده از یک شبکه عصبی

    expected

    مقادیر مورد انتظار، یعنی اهداف، که با خروجی صحیح مطابقت دارند.

  • میانگین درصد مطلق خطا بین predicted و expected را محاسبه می کند. loss = 100 * mean(abs((expected - predicted) / abs(expected)))

    اعلام

    @differentiable(wrt: predicted)
    @differentiable(wrt: (predicted, expected)
    public func meanAbsolutePercentageError<Scalar: TensorFlowFloatingPoint>(
      predicted: Tensor<Scalar>,
      expected: Tensor<Scalar>
    ) -> Tensor<Scalar>

    مولفه های

    predicted

    خروجی های پیش بینی شده از یک شبکه عصبی

    expected

    مقادیر مورد انتظار، یعنی اهداف، که با خروجی صحیح مطابقت دارند.

  • اتلاف لولا را بین predicted و expected محاسبه می کند. loss = reduction(max(0, 1 - predicted * expected)) انتظار می رود مقادیر expected 1- یا 1 باشد.

    اعلام

    @differentiable(wrt: predicted)
    @differentiable(wrt: (predicted, expected)
    public func hingeLoss<Scalar: TensorFlowFloatingPoint>(
      predicted: Tensor<Scalar>,
      expected: Tensor<Scalar>,
      reduction: @differentiable (Tensor<Scalar>) -> Tensor<Scalar> = _mean
    ) -> Tensor<Scalar>

    مولفه های

    predicted

    خروجی های پیش بینی شده از یک شبکه عصبی

    expected

    مقادیر مورد انتظار، یعنی اهداف، که با خروجی صحیح مطابقت دارند.

    reduction

    کاهش برای اعمال بر روی مقادیر از دست دادن عناصر محاسبه شده.

  • تلفات لولای مجذور بین predicted و expected را محاسبه می کند. loss = reduction(square(max(0, 1 - predicted * expected))) انتظار می رود مقادیر expected 1- یا 1 باشد.

    اعلام

    @differentiable(wrt: predicted)
    @differentiable(wrt: (predicted, expected)
    public func squaredHingeLoss<Scalar: TensorFlowFloatingPoint>(
      predicted: Tensor<Scalar>,
      expected: Tensor<Scalar>,
      reduction: @differentiable (Tensor<Scalar>) -> Tensor<Scalar> = _mean
    ) -> Tensor<Scalar>

    مولفه های

    predicted

    خروجی های پیش بینی شده از یک شبکه عصبی

    expected

    مقادیر مورد انتظار، یعنی اهداف، که با خروجی صحیح مطابقت دارند.

    reduction

    کاهش برای اعمال بر روی مقادیر از دست دادن عناصر محاسبه شده.

  • تلفات لولای طبقه بندی شده بین predicted و expected را محاسبه می کند. loss = maximum(negative - positive + 1, 0) که در آن negative = max((1 - expected) * predicted) و positive = sum(predicted * expected)

    اعلام

    @differentiable(wrt: predicted)
    @differentiable(wrt: (predicted, expected)
    public func categoricalHingeLoss<Scalar: TensorFlowFloatingPoint>(
      predicted: Tensor<Scalar>,
      expected: Tensor<Scalar>,
      reduction: @differentiable (Tensor<Scalar>) -> Tensor<Scalar> = _mean
    ) -> Tensor<Scalar>

    مولفه های

    predicted

    خروجی های پیش بینی شده از یک شبکه عصبی

    expected

    مقادیر مورد انتظار، یعنی اهداف، که با خروجی صحیح مطابقت دارند.

    reduction

    کاهش برای اعمال بر روی مقادیر از دست دادن عناصر محاسبه شده.

  • لگاریتم کسینوس هذلولی خطای پیش‌بینی را محاسبه می‌کند. logcosh = log((exp(x) + exp(-x))/2) ، که در آن x خطای predicted - expected است

    اعلام

    @differentiable(wrt: predicted)
    @differentiable(wrt: (predicted, expected)
    public func logCoshLoss<Scalar: TensorFlowFloatingPoint>(
      predicted: Tensor<Scalar>,
      expected: Tensor<Scalar>,
      reduction: @differentiable (Tensor<Scalar>) -> Tensor<Scalar> = _mean
    ) -> Tensor<Scalar>

    مولفه های

    predicted

    خروجی های پیش بینی شده از یک شبکه عصبی

    expected

    مقادیر مورد انتظار، یعنی اهداف، که با خروجی صحیح مطابقت دارند.

    reduction

    کاهش برای اعمال بر روی مقادیر از دست دادن عناصر محاسبه شده.

  • تلفات پواسون را بین پیش‌بینی‌شده و مورد انتظار محاسبه می‌کند ضرر پواسون میانگین عناصر Tensor predicted - expected * log(predicted) است.

    اعلام

    @differentiable(wrt: predicted)
    @differentiable(wrt: (predicted, expected)
    public func poissonLoss<Scalar: TensorFlowFloatingPoint>(
      predicted: Tensor<Scalar>,
      expected: Tensor<Scalar>,
      reduction: @differentiable (Tensor<Scalar>) -> Tensor<Scalar> = _mean
    ) -> Tensor<Scalar>

    مولفه های

    predicted

    خروجی های پیش بینی شده از یک شبکه عصبی

    expected

    مقادیر مورد انتظار، یعنی اهداف، که با خروجی صحیح مطابقت دارند.

    reduction

    کاهش برای اعمال بر روی مقادیر از دست دادن عناصر محاسبه شده.

  • تلفات واگرایی Kullback-Leibler را بین expected و predicted محاسبه می کند. loss = reduction(expected * log(expected / predicted))

    اعلام

    @differentiable(wrt: predicted)
    @differentiable(wrt: (predicted, expected)
    public func kullbackLeiblerDivergence<Scalar: TensorFlowFloatingPoint>(
      predicted: Tensor<Scalar>,
      expected: Tensor<Scalar>,
      reduction: @differentiable (Tensor<Scalar>) -> Tensor<Scalar> = _sum
    ) -> Tensor<Scalar>

    مولفه های

    predicted

    خروجی های پیش بینی شده از یک شبکه عصبی

    expected

    مقادیر مورد انتظار، یعنی اهداف، که با خروجی صحیح مطابقت دارند.

    reduction

    کاهش برای اعمال بر روی مقادیر از دست دادن عناصر محاسبه شده.

  • آنتروپی متقاطع softmax پراکنده (آنتروپی متقاطع طبقه ای) بین لاجیت ها و برچسب ها را محاسبه می کند. هنگامی که دو یا چند کلاس برچسب وجود دارد از این تابع تلفات متقاطع استفاده کنید. ما انتظار داریم که برچسب ها به صورت اعداد صحیح ارائه شوند. باید # classes مقدار ممیز شناور برای هر ویژگی برای logits و یک مقدار ممیز شناور برای هر ویژگی برای expected وجود داشته باشد.

    اعلام

    @differentiable(wrt: logits)
    public func softmaxCrossEntropy<Scalar: TensorFlowFloatingPoint>(
      logits: Tensor<Scalar>,
      labels: Tensor<Int32>,
      reduction: @differentiable (Tensor<Scalar>) -> Tensor<Scalar> = _mean
    ) -> Tensor<Scalar>

    مولفه های

    logits

    خروجی های کدگذاری شده یک گرم از یک شبکه عصبی.

    labels

    شاخص های (صفر شاخص) خروجی های صحیح.

    reduction

    کاهش برای اعمال بر روی مقادیر از دست دادن عناصر محاسبه شده.

  • آنتروپی متقاطع softmax پراکنده (آنتروپی متقاطع طبقه ای) بین لاجیت ها و برچسب ها را محاسبه می کند. هنگامی که دو یا چند کلاس برچسب وجود دارد از این تابع تلفات متقاطع استفاده کنید. ما انتظار داریم که برچسب‌ها در یک نمایش one_hot ارائه شوند. برای هر ویژگی باید # classes مقدار ممیز شناور وجود داشته باشد.

    اعلام

    @differentiable(wrt: logits)
    public func softmaxCrossEntropy<Scalar: TensorFlowFloatingPoint>(
      logits: Tensor<Scalar>,
      probabilities: Tensor<Scalar>,
      reduction: @differentiable (Tensor<Scalar>) -> Tensor<Scalar> = _mean
    ) -> Tensor<Scalar>

    مولفه های

    logits

    احتمالات لاگ بدون مقیاس از یک شبکه عصبی

    probabilities

    مقادیر احتمالی که با خروجی صحیح مطابقت دارند. هر ردیف باید یک توزیع احتمال معتبر باشد.

    reduction

    کاهش برای اعمال بر روی مقادیر از دست دادن عناصر محاسبه شده.

  • آنتروپی متقاطع سیگموئید (آنتروپی متقاطع باینری) بین لاجیت ها و برچسب ها را محاسبه می کند. از این تلفات آنتروپی متقابل زمانی استفاده کنید که فقط دو کلاس برچسب وجود دارد (فرض می شود 0 و 1 باشد). برای هر مثال، باید یک مقدار ممیز شناور در هر پیش‌بینی وجود داشته باشد.

    اعلام

    @differentiable(wrt: logits)
    @differentiable(wrt: (logits, labels)
    public func sigmoidCrossEntropy<Scalar: TensorFlowFloatingPoint>(
      logits: Tensor<Scalar>,
      labels: Tensor<Scalar>,
      reduction: @differentiable (Tensor<Scalar>) -> Tensor<Scalar> = _mean
    ) -> Tensor<Scalar>

    مولفه های

    logits

    خروجی مقیاس نشده یک شبکه عصبی

    labels

    مقادیر صحیحی که با خروجی صحیح مطابقت دارند.

    reduction

    کاهش برای اعمال بر روی مقادیر از دست دادن عناصر محاسبه شده.

  • ضرر هوبر را بین predicted و expected محاسبه می‌کند.

    برای هر مقدار x در error = expected - predicted :

    اعلام

    @differentiable(wrt: predicted)
    @differentiable(wrt: (predicted, expected)
    public func huberLoss<Scalar: TensorFlowFloatingPoint>(
      predicted: Tensor<Scalar>,
      expected: Tensor<Scalar>,
      delta: Scalar,
      reduction: @differentiable (Tensor<Scalar>) -> Tensor<Scalar> = _sum
    ) -> Tensor<Scalar>

    مولفه های

    predicted

    خروجی های پیش بینی شده از یک شبکه عصبی

    expected

    مقادیر مورد انتظار، یعنی اهداف، که با خروجی صحیح مطابقت دارند.

    delta

    یک اسکالر ممیز شناور که نشان دهنده نقطه ای است که تابع ضرر هوبر از درجه دوم به خطی تغییر می کند.

    reduction

    کاهش برای اعمال بر روی مقادیر از دست دادن عناصر محاسبه شده.

  • مقدار مطلق عنصر تانسور مشخص شده را برمی‌گرداند.

    اعلام

    @differentiable
    public func abs<T>(_ x: Tensor<T>) -> Tensor<T> where T : SignedNumeric, T : TensorFlowScalar
  • لگاریتم طبیعی عنصر تانسور مشخص شده را برمی‌گرداند.

    اعلام

    @differentiable
    public func log<T>(_ x: Tensor<T>) -> Tensor<T> where T : TensorFlowFloatingPoint
  • لگاریتم پایه دو عنصر تانسور مشخص شده را برمی‌گرداند.

    اعلام

    @differentiable
    public func log2<T>(_ x: Tensor<T>) -> Tensor<T> where T : TensorFlowFloatingPoint
  • لگاریتم پایه-ده عنصر تانسور مشخص شده را برمی‌گرداند.

    اعلام

    @differentiable
    public func log10<T>(_ x: Tensor<T>) -> Tensor<T> where T : TensorFlowFloatingPoint
  • لگاریتم 1 + x را بر حسب عنصر برمی‌گرداند.

    اعلام

    @differentiable
    public func log1p<T>(_ x: Tensor<T>) -> Tensor<T> where T : TensorFlowFloatingPoint
  • log(1 - exp(x)) با استفاده از یک رویکرد عددی پایدار برمی‌گرداند.

    توجه داشته باشید

    این رویکرد در معادله 7 نشان داده شده است: https://cran.r-project.org/web/packages/Rmpfr/vignettes/log1mexp-note.pdf .

    اعلام

    @differentiable
    public func log1mexp<T>(_ x: Tensor<T>) -> Tensor<T> where T : TensorFlowFloatingPoint
  • سینوس عنصر تانسور مشخص شده را از نظر عاقلانه برمی گرداند.

    اعلام

    @differentiable
    public func sin<T>(_ x: Tensor<T>) -> Tensor<T> where T : TensorFlowFloatingPoint
  • کسینوس عنصر تانسور مشخص شده را از نظر عاقلانه برمی‌گرداند.

    اعلام

    @differentiable
    public func cos<T>(_ x: Tensor<T>) -> Tensor<T> where T : TensorFlowFloatingPoint
  • مماس عنصر تانسور مشخص شده را از نظر تانژانت برمی‌گرداند.

    اعلام

    @differentiable
    public func tan<T>(_ x: Tensor<T>) -> Tensor<T> where T : TensorFlowFloatingPoint
  • سینوس هذلولی عنصر تانسور مشخص شده را برمی‌گرداند.

    اعلام

    @differentiable
    public func sinh<T>(_ x: Tensor<T>) -> Tensor<T> where T : TensorFlowFloatingPoint
  • کسینوس هذلولی عنصر تانسور مشخص شده را برمی‌گرداند.

    اعلام

    @differentiable
    public func cosh<T>(_ x: Tensor<T>) -> Tensor<T> where T : TensorFlowFloatingPoint
  • مماس هذلولی عنصر تانسور مشخص شده را برمی‌گرداند.

    اعلام

    @differentiable
    public func tanh<T>(_ x: Tensor<T>) -> Tensor<T> where T : TensorFlowFloatingPoint
  • کسینوس معکوس عنصر تانسور مشخص شده را از نظر عنصر تانسور برمی‌گرداند.

    اعلام

    @differentiable
    public func acos<T>(_ x: Tensor<T>) -> Tensor<T> where T : TensorFlowFloatingPoint
  • سینوس معکوس عنصر تانسور مشخص شده را از نظر عاقلانه برمی گرداند.

    اعلام

    @differentiable
    public func asin<T>(_ x: Tensor<T>) -> Tensor<T> where T : TensorFlowFloatingPoint
  • مماس معکوس عنصر تانسور مشخص شده را از نظر عنصر تانسور برمی گرداند.

    اعلام

    @differentiable
    public func atan<T>(_ x: Tensor<T>) -> Tensor<T> where T : TensorFlowFloatingPoint
  • کسینوس هذلولی معکوس عنصر تانسور مشخص شده را برمی‌گرداند.

    اعلام

    @differentiable
    public func acosh<T>(_ x: Tensor<T>) -> Tensor<T> where T : TensorFlowFloatingPoint
  • سینوس هذلولی معکوس عنصر تانسور مشخص شده را برمی‌گرداند.

    اعلام

    @differentiable
    public func asinh<T>(_ x: Tensor<T>) -> Tensor<T> where T : TensorFlowFloatingPoint
  • مماس هذلولی معکوس عنصر تانسور مشخص شده را بر می گرداند.

    اعلام

    @differentiable
    public func atanh<T>(_ x: Tensor<T>) -> Tensor<T> where T : TensorFlowFloatingPoint
  • جذر عنصر تانسور مشخص شده را از نظر عاقلانه برمی گرداند.

    اعلام

    @differentiable
    public func sqrt<T>(_ x: Tensor<T>) -> Tensor<T> where T : TensorFlowFloatingPoint
  • جذر معکوس عنصر تانسور مشخص شده را از نظر معکوس برمی گرداند.

    اعلام

    @differentiable
    public func rsqrt<T>(_ x: Tensor<T>) -> Tensor<T> where T : TensorFlowFloatingPoint
  • نمایی عنصر تانسور مشخص شده را به لحاظ نمایی برمی‌گرداند.

    اعلام

    @differentiable
    public func exp<T>(_ x: Tensor<T>) -> Tensor<T> where T : TensorFlowFloatingPoint
  • دو عدد را به توان عنصر تانسور مشخص شده برمی‌گرداند.

    اعلام

    @differentiable
    public func exp2<T>(_ x: Tensor<T>) -> Tensor<T> where T : TensorFlowFloatingPoint
  • ده افزایش یافته را به توان عنصر تانسور مشخص شده برمی گرداند.

    اعلام

    @differentiable
    public func exp10<T>(_ x: Tensor<T>) -> Tensor<T> where T : TensorFlowFloatingPoint
  • نمایی x - 1 را بر حسب عنصر برمی‌گرداند.

    اعلام

    @differentiable
    public func expm1<T>(_ x: Tensor<T>) -> Tensor<T> where T : TensorFlowFloatingPoint
  • مقادیر تانسور مشخص شده را که از نظر عنصر به نزدیکترین عدد صحیح گرد شده است، برمی گرداند.

    اعلام

    @differentiable
    public func round<T>(_ x: Tensor<T>) -> Tensor<T> where T : TensorFlowFloatingPoint
  • سقف عنصر تانسور مشخص شده را برمی‌گرداند.

    اعلام

    @differentiable
    public func ceil<T>(_ x: Tensor<T>) -> Tensor<T> where T : TensorFlowFloatingPoint
  • کف عنصر تانسور مشخص شده را برمی‌گرداند.

    اعلام

    @differentiable
    public func floor<T>(_ x: Tensor<T>) -> Tensor<T> where T : TensorFlowFloatingPoint
  • نشانی از علامت عنصر تانسور مشخص شده را برمی‌گرداند. به طور خاص، y = sign(x) = -1 را محاسبه می کند اگر x < 0 ; 0 اگر x == 0 ; 1 اگر x > 0 .

    اعلام

    @differentiable
    public func sign<T>(_ x: Tensor<T>) -> Tensor<T> where T : Numeric, T : TensorFlowScalar
  • سیگموئید عنصر تانسور مشخص شده را از نظر عنصر برمی گرداند. به طور خاص، 1 / (1 + exp(-x)) را محاسبه می کند.

    اعلام

    @differentiable
    public func sigmoid<T>(_ x: Tensor<T>) -> Tensor<T> where T : TensorFlowFloatingPoint
  • log-sigmoid عنصر تانسور مشخص شده را برمی‌گرداند. به طور خاص، log(1 / (1 + exp(-x))) . برای ثبات عددی، از -softplus(-x) استفاده می کنیم.

    اعلام

    @differentiable
    public func logSigmoid<T>(_ x: Tensor<T>) -> Tensor<T> where T : TensorFlowFloatingPoint
  • softplus عنصر تانسور مشخص شده را برمی‌گرداند. به طور خاص، log(exp(features) + 1) را محاسبه می کند.

    اعلام

    @differentiable
    public func softplus<T>(_ features: Tensor<T>) -> Tensor<T> where T : TensorFlowFloatingPoint
  • علامت نرم عنصر تانسور مشخص شده را برمی‌گرداند. به طور خاص، features/ (abs(features) + 1) را محاسبه می‌کند.

    اعلام

    @differentiable
    public func softsign<T>(_ features: Tensor<T>) -> Tensor<T> where T : TensorFlowFloatingPoint
  • Softmax تانسور مشخص شده را در امتداد آخرین محور برمی‌گرداند. به طور خاص، exp(x) / exp(x).sum(alongAxes: -1) محاسبه می کند.

    اعلام

    @differentiable
    public func softmax<T>(_ x: Tensor<T>) -> Tensor<T> where T : TensorFlowFloatingPoint
  • Softmax تانسور مشخص شده را در امتداد محور مشخص شده برمی‌گرداند. به طور خاص، exp(x) / exp(x).sum(alongAxes: axis) محاسبه می کند.

    اعلام

    @differentiable
    public func softmax<T>(_ x: Tensor<T>, alongAxis axis: Int) -> Tensor<T> where T : TensorFlowFloatingPoint
  • log-softmax عنصر تانسور مشخص شده را برمی‌گرداند.

    اعلام

    @differentiable
    public func logSoftmax<T>(_ x: Tensor<T>) -> Tensor<T> where T : TensorFlowFloatingPoint
  • با اعمال یک واحد خطی نمایی، یک تانسور را برمی‌گرداند. به طور خاص، exp(x) - 1 اگر <0، x در غیر این صورت محاسبه می کند. آموزش سریع و دقیق شبکه عمیق توسط واحدهای خطی نمایی (ELU) را ببینید

    اعلام

    @differentiable
    public func elu<T>(_ x: Tensor<T>) -> Tensor<T> where T : TensorFlowFloatingPoint
  • فعال‌سازی‌های واحد خطی خطای گاوسی (GELU) از عنصر تانسور مشخص شده را برمی‌گرداند.

    به طور خاص، gelu xP(X <= x) را تقریب می‌کند، جایی که P(X <= x) توزیع تجمعی استاندارد گاوسی است، با محاسبه: x * [0.5 * (1 + tanh[√(2/π) * (x + 0.044715 * x^3)])].

    واحدهای خطی خطای گاوسی را ببینید.

    اعلام

    @differentiable
    public func gelu<T>(_ x: Tensor<T>) -> Tensor<T> where T : TensorFlowFloatingPoint
  • با اعمال تابع فعال سازی ReLU به عنصر تانسور مشخص شده، یک تانسور را برمی گرداند. به طور خاص، max(0, x) را محاسبه می کند.

    اعلام

    @differentiable
    public func relu<T>(_ x: Tensor<T>) -> Tensor<T> where T : TensorFlowFloatingPoint
  • یک تانسور را با اعمال تابع فعال‌سازی ReLU6، یعنی min(max(0, x), 6) برمی‌گرداند.

    اعلام

    @differentiable
    public func relu6<T>(_ x: Tensor<T>) -> Tensor<T> where T : TensorFlowFloatingPoint
  • با اعمال تابع فعال‌سازی ReLU به عنصر تانسور مشخص شده، یک تانسور را برمی‌گرداند. به طور خاص، max(x, x * alpha) را محاسبه می کند.

    اعلام

    @differentiable(wrt: x)
    public func leakyRelu<T: TensorFlowFloatingPoint>(
      _ x: Tensor<T>,
      alpha: Double = 0.2
    ) -> Tensor<T>
  • یک تانسور را با اعمال تابع فعال‌سازی SeLU، یعنی scale * alpha * (exp(x) - 1) در صورت x < 0 ، و scale * x در غیر این صورت، برمی‌گرداند.

    توجه داشته باشید

    این به گونه ای طراحی شده است که همراه با اولیه سازهای لایه مقیاس بندی واریانس استفاده شود. لطفاً برای اطلاعات بیشتر به شبکه‌های عصبی خود عادی‌سازی مراجعه کنید.

    اعلام

    @differentiable
    public func selu<T>(_ x: Tensor<T>) -> Tensor<T> where T : TensorFlowFloatingPoint
  • یک تانسور را با اعمال تابع فعال‌سازی swish، یعنی x * sigmoid(x) برمی‌گرداند.

    منبع: «جستجوی توابع فعالسازی» (Ramachandran et al. 2017) https://arxiv.org/abs/1710.05941

    اعلام

    @differentiable
    public func swish<T>(_ x: Tensor<T>) -> Tensor<T> where T : TensorFlowFloatingPoint
  • یک تانسور را با اعمال تابع فعال‌سازی سیگموئید سخت، یعنی Relu6(x+3)/6 برمی‌گرداند.

    منبع: «جستجو برای MobileNetV3» (Howard et al. 2019) https://arxiv.org/abs/1905.02244

    اعلام

    @differentiable
    public func hardSigmoid<T>(_ x: Tensor<T>) -> Tensor<T> where T : TensorFlowFloatingPoint
  • یک تانسور را با اعمال تابع فعال‌سازی حرکت سخت، یعنی x * Relu6(x+3)/6 برمی‌گرداند.

    منبع: «جستجو برای MobileNetV3» (Howard et al. 2019) https://arxiv.org/abs/1905.02244

    اعلام

    @differentiable
    public func hardSwish<T>(_ x: Tensor<T>) -> Tensor<T> where T : TensorFlowFloatingPoint
  • یک تانسور را با اعمال تابع فعال‌سازی mish، یعنی x * tanh(softplus(x)) برمی‌گرداند.

    منبع: “Mish: A Self Regulularized Non-Monotonic Neural Activation Function” https://arxiv.org/abs/1908.08681

    اعلام

    @differentiable
    public func mish<T>(_ x: Tensor<T>) -> Tensor<T> where T : TensorFlowFloatingPoint
  • توان تانسور اول را به تانسور دوم برمی گرداند.

    اعلام

    @differentiable
    public func pow<T>(_ lhs: Tensor<T>, _ rhs: Tensor<T>) -> Tensor<T> where T : TensorFlowFloatingPoint
  • قدرت اسکالر را به تانسور برمی‌گرداند و اسکالر را پخش می‌کند.

    اعلام

    @differentiable(wrt: rhs)
    public func pow<T>(_ lhs: T, _ rhs: Tensor<T>) -> Tensor<T> where T : TensorFlowFloatingPoint
  • قدرت تانسور را به اسکالر برمی گرداند و اسکالر را پخش می کند.

    اعلام

    @differentiable(wrt: lhs)
    public func pow<T>(_ lhs: Tensor<T>, _ rhs: T) -> Tensor<T> where T : TensorFlowFloatingPoint
  • قدرت تانسور را به اسکالر برمی گرداند و اسکالر را پخش می کند.

    اعلام

    @differentiable
    public func pow<T>(_ x: Tensor<T>, _ n: Int) -> Tensor<T> where T : TensorFlowFloatingPoint
  • ریشه n تانسور از نظر عنصر را برمی گرداند.

    اعلام

    @differentiable
    public func root<T>(_ x: Tensor<T>, _ n: Int) -> Tensor<T> where T : TensorFlowFloatingPoint
  • اختلاف مجذور x و y را برمی‌گرداند.

    اعلام

    @differentiable
    public func squaredDifference<T>(_ x: Tensor<T>, _ y: Tensor<T>) -> Tensor<T> where T : Numeric, T : TensorFlowScalar

    ارزش بازگشتی

    (x - y) ^ 2 .

  • حداکثر دو تانسور را از نظر عنصر برمی‌گرداند.

    توجه داشته باشید

    max از پخش پشتیبانی می کند.

    اعلام

    @differentiable
    public func max<T>(_ lhs: Tensor<T>, _ rhs: Tensor<T>) -> Tensor<T> where T : Comparable, T : Numeric, T : TensorFlowScalar
  • حداکثر عنصر اسکالر و تانسور را برمی‌گرداند و اسکالر را پخش می‌کند.

    اعلام

    @differentiable(wrt: rhs)
    public func max<T>(_ lhs: T, _ rhs: Tensor<T>) -> Tensor<T> where T : Comparable, T : Numeric, T : TensorFlowScalar
  • حداکثر عنصر اسکالر و تانسور را برمی‌گرداند و اسکالر را پخش می‌کند.

    اعلام

    @differentiable(wrt: lhs)
    public func max<T>(_ lhs: Tensor<T>, _ rhs: T) -> Tensor<T> where T : Comparable, T : Numeric, T : TensorFlowScalar
  • حداقل دو تانسور را از نظر عنصر برمی‌گرداند.

    توجه داشته باشید

    min از پخش پشتیبانی می کند.

    اعلام

    @differentiable
    public func min<T>(_ lhs: Tensor<T>, _ rhs: Tensor<T>) -> Tensor<T> where T : Comparable, T : Numeric, T : TensorFlowScalar
  • حداقل عنصر اسکالر و تانسور را برمی‌گرداند و اسکالر را پخش می‌کند.

    اعلام

    @differentiable(wrt: rhs)
    public func min<T>(_ lhs: T, _ rhs: Tensor<T>) -> Tensor<T> where T : Comparable, T : Numeric, T : TensorFlowScalar
  • حداقل عنصر اسکالر و تانسور را برمی‌گرداند و اسکالر را پخش می‌کند.

    اعلام

    @differentiable(wrt: lhs)
    public func min<T>(_ lhs: Tensor<T>, _ rhs: T) -> Tensor<T> where T : Comparable, T : Numeric, T : TensorFlowScalar
  • شباهت کسینوس بین x و y را برمی‌گرداند.

    اعلام

    @differentiable
    public func cosineSimilarity<Scalar: TensorFlowFloatingPoint>(
      _ x: Tensor<Scalar>,
      _ y: Tensor<Scalar>
    ) -> Tensor<Scalar>
  • فاصله کسینوس بین x و y را برمی‌گرداند. فاصله کسینوس به صورت 1 - cosineSimilarity(x, y) تعریف می شود.

    اعلام

    @differentiable
    public func cosineDistance<Scalar: TensorFlowFloatingPoint>(
      _ x: Tensor<Scalar>,
      _ y: Tensor<Scalar>
    ) -> Tensor<Scalar>
  • ضرب ماتریس را با یک تانسور دیگر انجام می دهد و نتیجه را ایجاد می کند.

    اعلام

    @differentiable
    public func matmul<Scalar: Numeric>(
      _ lhs: Tensor<Scalar>,
      transposed transposeLhs: Bool = false,
      _ rhs: Tensor<Scalar>,
      transposed transposeRhs: Bool = false
    ) -> Tensor<Scalar>
  • یک پیچیدگی 1 بعدی را با ورودی، فیلتر، گام و بالشتک مشخص شده برمی‌گرداند.

    پیش شرط

    input باید دارای رتبه 3 باشد.

    پیش شرط

    filter باید دارای رتبه 3 باشد.

    اعلام

    @differentiable(wrt: (input, filter)
    public func conv1D<Scalar: TensorFlowFloatingPoint>(
      _ input: Tensor<Scalar>,
      filter: Tensor<Scalar>,
      stride: Int = 1,
      padding: Padding = .valid,
      dilation: Int = 1
    ) -> Tensor<Scalar>

    مولفه های

    input

    ورودی.

    filter

    فیلتر پیچیدگی

    stride

    گام فیلتر کشویی.

    padding

    بالشتک برای عملیات.

    dilation

    عامل اتساع

  • یک پیچیدگی دوبعدی با ورودی، فیلتر، گام‌ها و بالشتک مشخص شده را برمی‌گرداند.

    پیش شرط

    input باید دارای رتبه 4 باشد.

    پیش شرط

    filter باید دارای رتبه 4 باشد.

    اعلام

    @differentiable(wrt: (input, filter)
    public func conv2D<Scalar: TensorFlowFloatingPoint>(
      _ input: Tensor<Scalar>,
      filter: Tensor<Scalar>,
      strides: (Int, Int, Int, Int) = (1, 1, 1, 1),
      padding: Padding = .valid,
      dilations: (Int, Int, Int, Int) = (1, 1, 1, 1)
    ) -> Tensor<Scalar>

    مولفه های

    input

    ورودی.

    filter

    فیلتر پیچیدگی

    strides

    گام های فیلتر کشویی برای هر بعد ورودی.

    padding

    بالشتک برای عملیات

    dilations

    ضریب اتساع برای هر بعد ورودی.

  • یک کانولوشن انتقالی دوبعدی را با ورودی، فیلتر، گام‌ها و بالشتک مشخص شده برمی‌گرداند.

    پیش شرط

    input باید دارای رتبه 4 باشد.

    پیش شرط

    filter باید دارای رتبه 4 باشد.

    اعلام

    @differentiable(wrt: (input, filter)
    public func transposedConv2D<Scalar: TensorFlowFloatingPoint>(
      _ input: Tensor<Scalar>,
      shape: [Int64],
      filter: Tensor<Scalar>,
      strides: (Int, Int, Int, Int) = (1, 1, 1, 1),
      padding: Padding = .valid,
      dilations: (Int, Int, Int, Int) = (1, 1, 1, 1)
    ) -> Tensor<Scalar>

    مولفه های

    input

    ورودی.

    shape

    شکل خروجی عملیات deconvolution.

    filter

    فیلتر پیچیدگی

    strides

    گام های فیلتر کشویی برای هر بعد ورودی.

    padding

    بالشتک برای عملیات

    dilations

    ضریب اتساع برای هر بعد ورودی.

  • یک پیچیدگی سه بعدی با ورودی، فیلتر، گام‌ها، لایه‌بندی و اتساع مشخص شده را برمی‌گرداند.

    پیش شرط

    input باید دارای رتبه 5 باشد.

    پیش شرط

    filter باید دارای رتبه 5 باشد.

    اعلام

    @differentiable(wrt: (input, filter)
    public func conv3D<Scalar: TensorFlowFloatingPoint>(
      _ input: Tensor<Scalar>,
      filter: Tensor<Scalar>,
      strides: (Int, Int, Int, Int, Int) = (1, 1, 1, 1, 1),
      padding: Padding = .valid,
      dilations: (Int, Int, Int, Int, Int) = (1, 1, 1, 1, 1)
    ) -> Tensor<Scalar>

    مولفه های

    input

    ورودی.

    filter

    فیلتر پیچیدگی

    strides

    گام های فیلتر کشویی برای هر بعد ورودی.

    padding

    بالشتک برای عملیات.

    dilations

    ضریب اتساع برای هر بعد ورودی.

  • یک پیچیدگی عمقی دوبعدی را با ورودی، فیلتر، گام‌ها و بالشتک مشخص شده برمی‌گرداند.

    پیش شرط

    input باید دارای رتبه 4 باشد.

    پیش شرط

    filter باید دارای رتبه 4 باشد.

    اعلام

    @differentiable(wrt: (input, filter)
    public func depthwiseConv2D<Scalar: TensorFlowFloatingPoint>(
      _ input: Tensor<Scalar>,
      filter: Tensor<Scalar>,
      strides: (Int, Int, Int, Int),
      padding: Padding
    ) -> Tensor<Scalar>

    مولفه های

    input

    ورودی.

    filter

    فیلتر پیچیدگی عمقی.

    strides

    گام های فیلتر کشویی برای هر بعد ورودی.

    padding

    بالشتک برای عملیات.

  • یک ادغام حداکثر دو بعدی را با اندازه‌های فیلتر، گام‌ها و لایه‌های مشخص شده برمی‌گرداند.

    اعلام

    @differentiable(wrt: input)
    public func maxPool2D<Scalar: TensorFlowFloatingPoint>(
      _ input: Tensor<Scalar>,
      filterSize: (Int, Int, Int, Int),
      strides: (Int, Int, Int, Int),
      padding: Padding
    ) -> Tensor<Scalar>

    مولفه های

    input

    ورودی.

    filterSize

    ابعاد هسته ترکیبی.

    strides

    گام های فیلتر کشویی برای هر بعد ورودی.

    padding

    بالشتک برای عملیات.

  • یک ادغام حداکثر سه بعدی را با اندازه فیلتر، گام‌ها و لایه‌بندی مشخص شده برمی‌گرداند.

    اعلام

    @differentiable(wrt: input)
    public func maxPool3D<Scalar: TensorFlowFloatingPoint>(
      _ input: Tensor<Scalar>,
      filterSize: (Int, Int, Int, Int, Int),
      strides: (Int, Int, Int, Int, Int),
      padding: Padding
    ) -> Tensor<Scalar>

    مولفه های

    input

    ورودی.

    filterSize

    ابعاد هسته ترکیبی.

    strides

    گام های فیلتر کشویی برای هر بعد ورودی.

    padding

    بالشتک برای عملیات.

  • یک ادغام متوسط ​​دوبعدی، با اندازه‌های فیلتر، گام‌ها و لایه‌بندی مشخص شده را برمی‌گرداند.

    اعلام

    @differentiable(wrt: input)
    public func avgPool2D<Scalar: TensorFlowFloatingPoint>(
      _ input: Tensor<Scalar>,
      filterSize: (Int, Int, Int, Int),
      strides: (Int, Int, Int, Int),
      padding: Padding
    ) -> Tensor<Scalar>

    مولفه های

    input

    ورودی.

    filterSize

    ابعاد هسته ترکیبی.

    strides

    گام های فیلتر کشویی برای هر بعد ورودی.

    padding

    بالشتک برای عملیات.

  • یک ادغام متوسط ​​سه بعدی را با اندازه فیلتر، گام‌ها و لایه‌بندی مشخص شده برمی‌گرداند.

    اعلام

    @differentiable(wrt: input)
    public func avgPool3D<Scalar: TensorFlowFloatingPoint>(
      _ input: Tensor<Scalar>,
      filterSize: (Int, Int, Int, Int, Int),
      strides: (Int, Int, Int, Int, Int),
      padding: Padding
    ) -> Tensor<Scalar>

    مولفه های

    input

    ورودی.

    filterSize

    ابعاد هسته ترکیبی.

    strides

    گام های فیلتر کشویی برای هر بعد ورودی.

    padding

    بالشتک برای عملیات.

  • یک ادغام حداکثر کسری 2 بعدی را با نسبت های ادغام مشخص شده برمی گرداند.

    توجه: fractionalMaxPool اجرای XLA ندارد و بنابراین ممکن است پیامدهای عملکردی داشته باشد.

    اعلام

    @differentiable(wrt: input)
    public func fractionalMaxPool2D<Scalar: TensorFlowFloatingPoint>(
      _ input: Tensor<Scalar>,
      poolingRatio: (Double, Double, Double, Double),
      pseudoRandom: Bool = false,
      overlapping: Bool = false,
      deterministic: Bool = false,
      seed: Int64 = 0,
      seed2: Int64 = 0
    ) -> Tensor<Scalar>

    مولفه های

    input

    یک تانسور 4-بعدی با شکل [batch, height, width, channels] .

    poolingRatio

    لیست Doubles نسبت ادغام برای هر بعد input ، در حال حاضر فقط از بعد ردیف و ستون پشتیبانی می کند و باید >= 1.0 باشد.

    pseudoRandom

    یک Bool اختیاری پیش فرض ها به false . وقتی روی true تنظیم شود، دنباله ادغام را به صورت شبه تصادفی تولید می کند، در غیر این صورت، به صورت تصادفی.

    overlapping

    یک Bool اختیاری پیش فرض ها به false . وقتی روی true تنظیم شود، به این معنی است که هنگام ادغام، مقادیر در مرز سلول های ادغام مجاور توسط هر دو سلول استفاده می شود.

    deterministic

    یک Bool اختیاری هنگامی که روی true تنظیم می شود، هنگام تکرار بر روی یک گره fractionalMaxPool2D در نمودار محاسباتی، از یک منطقه تجمیع ثابت استفاده می شود.

    seed

    یک Int64 اختیاری. پیش‌فرض 0 است. اگر روی غیر صفر تنظیم شود، مولد اعداد تصادفی توسط دانه داده شده دانه بندی می شود.

    seed2

    یک Int64 اختیاری. پیش‌فرض 0 است. دانه دوم برای جلوگیری از برخورد دانه.

  • یک کپی از input را برمی‌گرداند که در آن مقادیر از بعد عمق در بلوک‌های فضایی به ابعاد ارتفاع و عرض منتقل می‌شوند.

    به عنوان مثال، با توجه به ورودی شکل [1, 2, 2, 1] ، data_format = "NHWC" و block_size = 2:

    x = [[[[1], [2]],
          [[3], [4]]]]
    

    این عملیات یک تانسور شکل [1, 1, 1, 4] تولید می کند:

    [[[[1, 2, 3, 4]]]]
    

    در اینجا، ورودی دارای یک دسته 1 است و هر عنصر دسته ای شکل [2, 2, 1] دارد، خروجی مربوطه دارای یک عنصر خواهد بود (یعنی عرض و ارتفاع هر دو 1 هستند) و دارای عمق 4 کانال (1) * block_size * block_size). شکل عنصر خروجی [1, 1, 4] است.

    برای یک تانسور ورودی با عمق بیشتر، در اینجا شکل [1, 2, 2, 3] ، به عنوان مثال

    x = [[[[1, 2, 3], [4, 5, 6]],
          [[7, 8, 9], [10, 11, 12]]]]
    

    این عملیات، برای block_size 2، تانسور شکل زیر را برمی گرداند [1, 1, 1, 12]

    [[[[1, 2, 3, 4, 5, 6, 7, 8, 9, 10, 11, 12]]]]
    

    به طور مشابه، برای ورودی شکل زیر [1 4 4 1] و اندازه بلوک 2:

    x = [[[[1],   [2],  [5],  [6]],
          [[3],   [4],  [7],  [8]],
          [[9],  [10], [13],  [14]],
          [[11], [12], [15],  [16]]]]
    

    عملگر تانسور شکل زیر را برمی گرداند [1 2 2 4] :

    x = [[[[1, 2, 3, 4],
           [5, 6, 7, 8]],
          [[9, 10, 11, 12],
           [13, 14, 15, 16]]]]
    

    پیش شرط

    input.rank == 4 && b >= 2 .

    پیش شرط

    تعداد ویژگی ها باید بر مجذور b بخش پذیر باشد.

    اعلام

    @differentiable(wrt: input)
    public func depthToSpace<Scalar>(_ input: Tensor<Scalar>, blockSize b: Int) -> Tensor<Scalar> where Scalar : TensorFlowScalar
  • یک کپی از input را برمی‌گرداند که در آن مقادیر از ابعاد ارتفاع و عرض به بعد عمق منتقل می‌شوند.

    به عنوان مثال، با توجه به ورودی شکل [1, 2, 2, 1] ، data_format = "NHWC" و block_size = 2:

    x = [[[[1], [2]],
          [[3], [4]]]]
    

    این عملیات یک تانسور شکل [1, 1, 1, 4] تولید می کند:

    [[[[1, 2, 3, 4]]]]
    

    در اینجا، ورودی دارای یک دسته 1 است و هر عنصر دسته ای شکل [2, 2, 1] دارد، خروجی مربوطه دارای یک عنصر خواهد بود (یعنی عرض و ارتفاع هر دو 1 هستند) و دارای عمق 4 کانال (1) * block_size * block_size). شکل عنصر خروجی [1, 1, 4] است.

    برای یک تانسور ورودی با عمق بیشتر، در اینجا شکل [1, 2, 2, 3] ، به عنوان مثال

    x = [[[[1, 2, 3], [4, 5, 6]],
          [[7, 8, 9], [10, 11, 12]]]]
    

    این عملیات، برای block_size 2، تانسور شکل زیر را برمی گرداند [1, 1, 1, 12]

    [[[[1, 2, 3, 4, 5, 6, 7, 8, 9, 10, 11, 12]]]]
    

    به طور مشابه، برای ورودی شکل زیر [1 4 4 1] و اندازه بلوک 2:

    x = [[[[1],   [2],  [5],  [6]],
          [[3],   [4],  [7],  [8]],
          [[9],  [10], [13],  [14]],
          [[11], [12], [15],  [16]]]]
    

    عملگر تانسور شکل زیر را برمی گرداند [1 2 2 4] :

    x = [[[[1, 2, 3, 4],
           [5, 6, 7, 8]],
          [[9, 10, 11, 12],
           [13, 14, 15, 16]]]]
    

    پیش شرط

    input.rank == 4 && b >= 2 .

    پیش شرط

    ارتفاع ورودی باید بر b بخش پذیر باشد.

    پیش شرط

    عرض ورودی باید بر b تقسیم شود.

    اعلام

    @differentiable(wrt: input)
    public func spaceToDepth<Scalar>(_ input: Tensor<Scalar>, blockSize b: Int) -> Tensor<Scalar> where Scalar : TensorFlowScalar
  • یک بهینه ساز به ازای هر وزن برای LARS می سازد ( https://arxiv.org/pdf/1708.03888.pdf ).

    اعلام

    public func makeLARS(
      learningRate: Float = 0.01,
      momentum: Float = 0.9,
      trustCoefficient: Float = 0.001,
      nesterov: Bool = false,
      epsilon: Float = 0.0,
      weightDecay: Float = 0.0
    ) -> ParameterGroupOptimizer
  • یک بهینه ساز بر اساس SGD در هر وزن ایجاد می کند.

    اعلام

    public func makeSGD(
      learningRate: Float = 0.01,
      momentum: Float = 0,
      weightDecay: Float = 0,
      nesterov: Bool = false
    ) -> ParameterGroupOptimizer
  • یک بهینه ساز در هر وزن برای آدم با کاهش وزن ایجاد می کند.

    مرجع: "آدام - روشی برای بهینه سازی تصادفی"

    اعلام

    public func makeAdam(
      learningRate: Float = 0.01,
      beta1: Float = 0.9,
      beta2: Float = 0.999,
      weightDecayRate: Float = 0.01,
      epsilon: Float = 1e-6
    ) -> ParameterGroupOptimizer
  • یک دانه تصادفی جدید برای TensorFlow ایجاد می کند.

    اعلام

    public func randomSeedForTensorFlow(using seed: TensorFlowSeed? = nil) -> TensorFlowSeed
  • دو مقدار را به هم متصل می کند.

    اعلام

    @differentiable
    public func concatenate<T: Mergeable>(
      _ first: T,
      _ second: T
    ) -> T
  • دو مقدار را جمع کرده و مجموع آنها را تولید می کند.

    اعلام

    @differentiable
    public func sum<T: Mergeable>(
      _ first: T,
      _ second: T
    ) -> T
  • میانگین دو مقدار.

    اعلام

    @differentiable
    public func average<T: Mergeable>(
      _ first: T,
      _ second: T
    ) -> T
  • دو مقدار را ضرب می کند.

    اعلام

    @differentiable
    public func multiply<T: Mergeable>(
      _ first: T,
      _ second: T
    ) -> T
  • دو مقدار را پشته کنید.

    اعلام

    @differentiable
    public func stack<T: Mergeable>(
      _ first: T,
      _ second: T
    ) -> T
  • اعلام

    public func PrintX10Metrics()
  • یک خلاصه رشته ای از لیستی از آمار آموزش و تست ایجاد می کند.

    اعلام

    public func formatStatistics(_ stats: (train: HostStatistics, test: HostStatistics)) -> String
  • اعلام

    public func formatStatistics(train trainStats: HostStatistics, test testStats: HostStatistics)
      -> String
  • یک تابع را روی n رشته نگاشت می کند.

    اعلام

    public func runOnNThreads<R>(_ nThreads: Int, _ body: @escaping (Int) -> R) -> [R]