کارکرد

توابع زیر به صورت جهانی در دسترس هستند.

  • بازده L1 بین پیش بینی ها و انتظارات را برمی گرداند.

    اعلام

    @differentiable(wrt: predicted)
    @differentiable(wrt: (predicted, expected)
    public func l1Loss<Scalar: TensorFlowFloatingPoint>(
      predicted: Tensor<Scalar>,
      expected: Tensor<Scalar>
    ) -> Tensor<Scalar>

    مولفه های

    predicted

    خروجی های پیش بینی شده از یک شبکه عصبی

    expected

    مقادیر مورد انتظار ، یعنی اهداف ، که با خروجی صحیح مطابقت دارد.

  • بازده L2 بین پیش بینی ها و انتظارات را برمی گرداند.

    اعلام

    @differentiable(wrt: predicted)
    @differentiable(wrt: (predicted, expected)
    public func l2Loss<Scalar: TensorFlowFloatingPoint>(
      predicted: Tensor<Scalar>,
      expected: Tensor<Scalar>
    ) -> Tensor<Scalar>

    مولفه های

    predicted

    خروجی های پیش بینی شده از یک شبکه عصبی

    expected

    مقادیر مورد انتظار ، یعنی اهداف ، که با خروجی صحیح مطابقت دارد.

  • از دست دادن لولا بین پیش بینی ها و انتظارات را برمی گرداند.

    اعلام

    @differentiable(wrt: predicted)
    @differentiable(wrt: (predicted, expected)
    public func hingeLoss<Scalar: TensorFlowFloatingPoint>(
      predicted: Tensor<Scalar>,
      expected: Tensor<Scalar>
    ) -> Tensor<Scalar>

    مولفه های

    predicted

    خروجی های پیش بینی شده از یک شبکه عصبی

    expected

    مقادیر مورد انتظار ، یعنی اهداف ، که با خروجی صحیح مطابقت دارد.

  • از دست دادن لولا در مربع بین پیش بینی ها و انتظارات را برمی گرداند.

    اعلام

    @differentiable(wrt: predicted)
    @differentiable(wrt: (predicted, expected)
    public func squaredHingeLoss<Scalar: TensorFlowFloatingPoint>(
      predicted: Tensor<Scalar>,
      expected: Tensor<Scalar>
    ) -> Tensor<Scalar>

    مولفه های

    predicted

    خروجی های پیش بینی شده از یک شبکه عصبی

    expected

    مقادیر مورد انتظار ، یعنی اهداف ، که با خروجی صحیح مطابقت دارد.

  • از دست دادن لولا دسته ای بین پیش بینی ها و انتظارات را برمی گرداند.

    اعلام

    @differentiable(wrt: predicted)
    @differentiable(wrt: (predicted, expected)
    public func categoricalHingeLoss<Scalar: TensorFlowFloatingPoint>(
      predicted: Tensor<Scalar>,
      expected: Tensor<Scalar>
    ) -> Tensor<Scalar>

    مولفه های

    predicted

    خروجی های پیش بینی شده از یک شبکه عصبی

    expected

    مقادیر مورد انتظار ، یعنی اهداف ، که با خروجی صحیح مطابقت دارد.

  • لگاریتم کسینوس هذلولی خطا بین پیش بینی ها و انتظارات را برمی گرداند.

    اعلام

    @differentiable(wrt: predicted)
    @differentiable(wrt: (predicted, expected)
    public func logCoshLoss<Scalar: TensorFlowFloatingPoint>(
      predicted: Tensor<Scalar>,
      expected: Tensor<Scalar>
    ) -> Tensor<Scalar>

    مولفه های

    predicted

    خروجی های پیش بینی شده از یک شبکه عصبی

    expected

    مقادیر مورد انتظار ، یعنی اهداف ، که با خروجی صحیح مطابقت دارد.

  • ضرر پواسون را بین پیش بینی ها و انتظارات برمی گرداند.

    اعلام

    @differentiable(wrt: predicted)
    @differentiable(wrt: (predicted, expected)
    public func poissonLoss<Scalar: TensorFlowFloatingPoint>(
      predicted: Tensor<Scalar>,
      expected: Tensor<Scalar>
    ) -> Tensor<Scalar>

    مولفه های

    predicted

    خروجی های پیش بینی شده از یک شبکه عصبی

    expected

    مقادیر مورد انتظار ، یعنی اهداف ، که با خروجی صحیح مطابقت دارد.

  • واگرایی Kullback-Leibler (واگرایی KL) بین انتظارات و پیش بینی ها را برمی گرداند. با توجه به دو توزیع p و q ، KL واگرایی محاسبه p * log(p / q) .

    اعلام

    @differentiable(wrt: predicted)
    @differentiable(wrt: (predicted, expected)
    public func kullbackLeiblerDivergence<Scalar: TensorFlowFloatingPoint>(
      predicted: Tensor<Scalar>,
      expected: Tensor<Scalar>
    ) -> Tensor<Scalar>

    مولفه های

    predicted

    خروجی های پیش بینی شده از یک شبکه عصبی

    expected

    مقادیر مورد انتظار ، یعنی اهداف ، که با خروجی صحیح مطابقت دارد.

  • آنتروپی متقاطع softmax (آنتروپی متقاطع متقابل) را بین logits و label ها برمی گرداند.

    اعلام

    @differentiable(wrt: logits)
    public func softmaxCrossEntropy<Scalar: TensorFlowFloatingPoint>(
      logits: Tensor<Scalar>,
      probabilities: Tensor<Scalar>
    ) -> Tensor<Scalar>

    مولفه های

    logits

    خروجی های رمزگذاری شده از یک شبکه عصبی

    labels

    شاخص های (صفر نمایه) خروجی های صحیح.

  • آنتروپی متقاطع سیگموئید (آنتروپی متقاطع دوتایی) بین logits و label ها را برمی گرداند.

    اعلام

    @differentiable(wrt: logits)
    @differentiable(wrt: (logits, labels)
    public func sigmoidCrossEntropy<Scalar: TensorFlowFloatingPoint>(
      logits: Tensor<Scalar>,
      labels: Tensor<Scalar>
    ) -> Tensor<Scalar>

    مولفه های

    logits

    خروجی بدون مقیاس یک شبکه عصبی

    labels

    مقادیر صحیح که با خروجی صحیح مطابقت دارد.

  • یک تانسور با شکل و مقیاس بندی مشابه تانسور مشخص شده را برمی گرداند.

    اعلام

    @differentiable
    public func identity<Scalar>(_ x: Tensor<Scalar>) -> Tensor<Scalar> where Scalar : TensorFlowScalar
  • بسته شدن داده شده را در زمینه ای توصیف می کند که همه چیز با زمینه فعلی یکسان است به جز مرحله یادگیری داده شده.

    اعلام

    public func withContext<R>(_ context: Context, _ body: () throws -> R) rethrows -> R

    مولفه های

    context

    زمینه ای که قبل از فراخوانی بسته شدن و تنظیم مجدد پس از بازگشت بسته ، تنظیم می شود.

    body

    تعطیلی دلخراش. اگر از بسته شدن دارای یک مقدار بازگشتی، که ارزش نیز به عنوان مقدار بازگشتی از استفاده withContext(_:_:) تابع.

    مقدار بازگشتی

    مقدار بازگشتی، در صورت وجود، از body بسته شدن.

  • بسته شدن داده شده را در زمینه ای توصیف می کند که همه چیز با زمینه فعلی یکسان است به جز مرحله یادگیری داده شده.

    اعلام

    public func withLearningPhase<R>(
      _ learningPhase: LearningPhase,
      _ body: () throws -> R
    ) rethrows -> R

    مولفه های

    learningPhase

    یک مرحله یادگیری است که قبل از فراخوانی بسته و پس از بازگشت بسته مجدداً تنظیم می شود.

    body

    تعطیلی دلخراش. اگر از بسته شدن دارای یک مقدار بازگشتی، که ارزش نیز به عنوان مقدار بازگشتی از استفاده withLearningPhase(_:_:) تابع.

    مقدار بازگشتی

    مقدار بازگشتی، در صورت وجود، از body بسته شدن.

  • بسته شدن داده شده را در زمینه ای توصیف می کند که همه چیز شبیه به زمینه فعلی است به جز دانه تصادفی داده شده.

    اعلام

    public func withRandomSeedForTensorFlow<R>(
      _ randomSeed: TensorFlowSeed,
      _ body: () throws -> R
    ) rethrows -> R

    مولفه های

    randomSeed

    یک دانه تصادفی که قبل از بسته شدن تماس گرفته می شود و پس از بازگشت بسته مجدداً تنظیم می شود.

    body

    تعطیلی دلخراش. اگر از بسته شدن دارای یک مقدار بازگشتی، که ارزش نیز به عنوان مقدار بازگشتی از استفاده withRandomSeedForTensorFlow(_:_:) تابع.

    مقدار بازگشتی

    مقدار بازگشتی، در صورت وجود، از body بسته شدن.

  • بسته شدن داده شده را در زمینه ای که همه چیز شبیه به زمینه فعلی است به غیر از مولد شماره تصادفی داده شده فرا می خواند.

    اعلام

    public func withRandomNumberGeneratorForTensorFlow<G: RandomNumberGenerator, R>(
      _ randomNumberGenerator: inout G,
      _ body: () throws -> R
    ) rethrows -> R

    مولفه های

    randomNumberGenerator

    یک مولد اعداد تصادفی که قبل از فراخوانی بسته شدن و تنظیم مجدد پس از بازگشت بسته تنظیم می شود.

    body

    تعطیلی دلخراش. اگر از بسته شدن دارای یک مقدار بازگشتی، که ارزش نیز به عنوان مقدار بازگشتی از استفاده withRandomNumberGeneratorForTensorFlow(_:_:) تابع.

    مقدار بازگشتی

    مقدار بازگشتی، در صورت وجود، از body بسته شدن.

  • اعلام

    public func zip<T: TensorGroup, U: TensorGroup>(
      _ dataset1: Dataset<T>, _ dataset2: Dataset<U>
    ) -> Dataset<Zip2TensorGroup<T, U>>
  • LazyTensorBarrier اطمینان حاصل می کند که همه تنسورهای زنده (در صورت ارائه دستگاه) برنامه ریزی شده و در حال اجرا هستند. اگر انتظار روی true تنظیم شده باشد ، این تماس تا کامل شدن محاسبه مسدود می شود.

    اعلام

    public func LazyTensorBarrier(on device: Device? = nil, devices: [Device] = [], wait: Bool = false)
  • اعلام

    public func valueWithGradient<T, R>(
      at x: T,
      in f: @differentiable (T) -> Tensor<R>
    ) -> (value: Tensor<R>, gradient: T.TangentVector)
    where T: Differentiable, R: TensorFlowFloatingPoint
  • اعلام

    public func valueWithGradient<T, U, R>(
      at x: T,
      _ y: U,
      in f: @differentiable (T, U) -> Tensor<R>
    ) -> (value: Tensor<R>, gradient: (T.TangentVector, U.TangentVector))
    where T: Differentiable, U: Differentiable, R: TensorFlowFloatingPoint
  • اعلام

    public func valueWithGradient<T, U, V, R>(
      at x: T,
      _ y: U,
      _ z: V,
      in f: @differentiable (T, U, V) -> Tensor<R>
    ) -> (value: Tensor<R>, gradient: (T.TangentVector, U.TangentVector, V.TangentVector))
    where T: Differentiable, U: Differentiable, V: Differentiable, R: TensorFlowFloatingPoint
  • اعلام

    public func valueWithGradient<T, R>(
      of f: @escaping @differentiable (T) -> Tensor<R>
    ) -> (T) -> (value: Tensor<R>, gradient: T.TangentVector)
    where T: Differentiable, R: TensorFlowFloatingPoint
  • اعلام

    public func valueWithGradient<T, U, R>(
      of f: @escaping @differentiable (T, U) -> Tensor<R>
    ) -> (T, U) -> (value: Tensor<R>, gradient: (T.TangentVector, U.TangentVector))
    where T: Differentiable, U: Differentiable, R: TensorFlowFloatingPoint
  • اعلام

    public func valueWithGradient<T, U, V, R>(
      of f: @escaping @differentiable (T, U, V) -> Tensor<R>
    ) -> (T, U, V) -> (
      value: Tensor<R>,
      gradient: (T.TangentVector, U.TangentVector, V.TangentVector)
    )
    where T: Differentiable, U: Differentiable, V: Differentiable, R: TensorFlowFloatingPoint
  • اعلام

    public func gradient<T, R>(
      at x: T,
      in f: @differentiable (T) -> Tensor<R>
    ) -> T.TangentVector where T: Differentiable, R: TensorFlowFloatingPoint
  • اعلام

    public func gradient<T, U, R>(
      at x: T,
      _ y: U,
      in f: @differentiable (T, U) -> Tensor<R>
    ) -> (T.TangentVector, U.TangentVector)
    where T: Differentiable, U: Differentiable, R: TensorFlowFloatingPoint
  • اعلام

    public func gradient<T, U, V, R>(
      at x: T,
      _ y: U,
      _ z: V,
      in f: @differentiable (T, U, V) -> Tensor<R>
    ) -> (T.TangentVector, U.TangentVector, V.TangentVector)
    where T: Differentiable, U: Differentiable, V: Differentiable, R: TensorFlowFloatingPoint
  • اعلام

    public func gradient<T, R>(
      of f: @escaping @differentiable (T) -> Tensor<R>
    ) -> (T) -> T.TangentVector where T: Differentiable, R: TensorFlowFloatingPoint
  • اعلام

    public func gradient<T, U, R>(
      of f: @escaping @differentiable (T, U) -> Tensor<R>
    ) -> (T, U) -> (T.TangentVector, U.TangentVector)
    where T: Differentiable, U: Differentiable, R: TensorFlowFloatingPoint
  • اعلام

    public func gradient<T, U, V, R>(
      of f: @escaping @differentiable (T, U, V) -> Tensor<R>
    ) -> (T, U, V) -> (T.TangentVector, U.TangentVector, V.TangentVector)
    where T: Differentiable, U: Differentiable, V: Differentiable, R: TensorFlowFloatingPoint
  • یک تابع را در عقب کشیدن مجدد محاسبه کنید ، که در تمایز خودکار سنتی به عنوان "checkpointing" شناخته می شود.

    اعلام

    public func withRecomputationInPullbacks<T, U>(
      _ body: @escaping @differentiable (T) -> U
    ) -> @differentiable (T) -> U where T : Differentiable, U : Differentiable
  • یک تابع متغیر از یک تابع محصولات بردار-ژاکوبی ایجاد کنید.

    اعلام

    public func differentiableFunction<T : Differentiable, R : Differentiable>(
      from vjp: @escaping (T)
               -> (value: R, pullback: (R.TangentVector) -> T.TangentVector)
    ) -> @differentiable (T) -> R
  • یک تابع متغیر از یک تابع محصولات بردار-ژاکوبی ایجاد کنید.

    اعلام

    public func differentiableFunction<T, U, R>(
      from vjp: @escaping (T, U)
               -> (value: R, pullback: (R.TangentVector)
                 -> (T.TangentVector, U.TangentVector))
    ) -> @differentiable (T, U) -> R
  • بازگشت x مانند یک تابع هویت. هنگامی که در یک زمینه که در آن استفاده می شود x است که متفاوت با توجه به این، این تابع هر مشتق در خواهد تولید نمی x .

    اعلام

    @_semantics("autodiff.nonvarying")
    public func withoutDerivative<T>(at x: T) -> T
  • اعمال بسته شدن داده می شود body به x . هنگامی که در یک زمینه که در آن استفاده می شود x است که متفاوت با توجه به این، این تابع هر مشتق در خواهد تولید نمی x .

    اعلام

    @_semantics("autodiff.nonvarying")
    public func withoutDerivative<T, R>(at x: T, in body: (T) -> R) -> R
  • بسته شدن را اجرا می کند و باعث می شود عملیات TensorFlow بر روی دستگاه خاصی اجرا شود.

    اعلام

    public func withDevice<R>(
      _ kind: DeviceKind,
      _ index: UInt = 0,
      perform body: () throws -> R
    ) rethrows -> R

    مولفه های

    kind

    نوعی دستگاه برای اجرای عملیات TensorFlow.

    index

    دستگاهی که گزینه ها را اجرا می کند.

    body

    بسته ای که عملیات TensorFlow قرار است بر روی نوع دستگاه مشخصی اجرا شود.

  • بسته شدن را اجرا می کند و باعث می شود عملیات TensorFlow روی دستگاهی با نام خاص اجرا شود.

    چند نمونه از نام دستگاه ها:

    • “/device: CPU: 0”: CPU دستگاه شما.
    • “/GPU: 0”: نشانه گذاری کوتاه برای اولین GPU دستگاه شما که برای TensorFlow قابل مشاهده است
    • "/job: localhost/replica: 0/task: 0/device: GPU: 1": نام کاملاً واجد شرایط GPU دوم دستگاه شما که برای TensorFlow قابل مشاهده است.

    اعلام

    public func withDevice<R>(named name: String, perform body: () throws -> R) rethrows -> R

    مولفه های

    name

    نام دستگاه.

    body

    بسته ای که عملیات TensorFlow قرار است روی نوع خاصی از دستگاه اجرا شود.

  • بسته شدن را اجرا می کند و به TensorFlow اجازه می دهد تا عملیات TensorFlow را روی هر دستگاهی قرار دهد. این باید رفتار مکان پیش فرض را بازیابی کند.

    اعلام

    public func withDefaultDevice<R>(perform body: () throws -> R) rethrows -> R

    مولفه های

    body

    بسته ای که عملیات TensorFlow قرار است بر روی نوع دستگاه مشخصی اجرا شود.

  • اندازه تصاویر را با استفاده از روش مشخص شده تغییر دهید.

    پیش شرط

    تصاویر باید رتبه دارند 3 یا 4 .

    پیش شرط

    اندازه باید مثبت باشد.

    اعلام

    @differentiable(wrt: images)
    public func resize(
      images: Tensor<Float>,
      size: (newHeight: Int, newWidth: Int),
      method: ResizeMethod = .bilinear,
      antialias: Bool = false
    ) -> Tensor<Float>

    مولفه های

    images

    4-D Tensor شکل [batch, height, width, channels] و یا 3-D Tensor شکل [height, width, channels] .

    size

    اندازه جدید تصاویر.

    method

    روش تغییر اندازه مقدار پیش فرض است .bilinear .

    antialias

    IFF true ، استفاده از یک فیلتر ضد aliasing که کرد ن یک تصویر.

  • اندازه تصاویر را با استفاده از درون یابی ناحیه تغییر دهید.

    پیش شرط

    تصاویر باید رتبه دارند 3 یا 4 .

    پیش شرط

    اندازه باید مثبت باشد.

    اعلام

    public func resizeArea<Scalar: TensorFlowNumeric>(
      images: Tensor<Scalar>,
      size: (newHeight: Int, newWidth: Int),
      alignCorners: Bool = false
    ) -> Tensor<Float>

    مولفه های

    images

    4-D Tensor شکل [batch, height, width, channels] و یا 3-D Tensor شکل [height, width, channels] .

    size

    اندازه جدید تصاویر.

  • اتساع دو بعدی با ورودی ، فیلتر ، گام ها و پد مشخص شده را برمی گرداند.

    پیش شرط

    input باید رتبه دارند 4 .

    پیش شرط

    filter باید رتبه دارند 3 .

    اعلام

    @differentiable(wrt: (input, filter)
    public func dilation2D<Scalar: TensorFlowFloatingPoint>(
      _ input: Tensor<Scalar>,
      filter: Tensor<Scalar>,
      strides: (Int, Int, Int, Int) = (1, 1, 1, 1),
      rates: (Int, Int, Int, Int) = (1, 1, 1, 1),
      padding: Padding = .valid
    ) -> Tensor<Scalar>

    مولفه های

    input

    ورودی.

    filter

    فیلتر اتساع.

    strides

    مراحل فیلتر کشویی برای هر بعد ورودی.

    padding

    بالشتک برای عملیات

    rates

    نرخ اتساع برای هر بعد ورودی.

  • فرسایش دو بعدی را با ورودی ، فیلتر ، گام ها و پد مشخص شده برمی گرداند.

    پیش شرط

    input باید رتبه دارند 4 .

    پیش شرط

    filter باید رتبه 3 دارند.

    اعلام

    @differentiable(wrt: (input, filter)
    public func erosion2D<Scalar: TensorFlowFloatingPoint>(
      _ input: Tensor<Scalar>,
      filter: Tensor<Scalar>,
      strides: (Int, Int, Int, Int) = (1, 1, 1, 1),
      rates: (Int, Int, Int, Int) = (1, 1, 1, 1),
      padding: Padding = .valid
    ) -> Tensor<Scalar>

    مولفه های

    input

    ورودی.

    filter

    فیلتر فرسایش

    strides

    مراحل فیلتر کشویی برای هر بعد ورودی.

    padding

    بالشتک برای عملیات

    rates

    نرخ اتساع برای هر بعد ورودی.

  • تابعی را برمی گرداند که با مقدار دهی تمام مقادیر آن به صفر ، تانسور ایجاد می کند.

    اعلام

    public func zeros<Scalar>() -> ParameterInitializer<Scalar> where Scalar : TensorFlowFloatingPoint
  • تابعی را برمی گرداند که با مقدار دهی اولیه تمام مقادیر آن به مقدار ارائه شده ، تانسور ایجاد می کند.

    اعلام

    public func constantInitializer<Scalar: TensorFlowFloatingPoint>(
      value: Scalar
    ) -> ParameterInitializer<Scalar>
  • تابعی را باز می گرداند که با مقدار دهی اولیه به مقدار ارائه شده ، تانسور ایجاد می کند. توجه داشته باشید که پخش از ارزش ارائه شده است پشتیبانی نمی شود.

    اعلام

    public func constantInitializer<Scalar: TensorFlowFloatingPoint>(
      value: Tensor<Scalar>
    ) -> ParameterInitializer<Scalar>
  • بازده یک تابع است که ایجاد یک تانسور با انجام Glorot (خاویر) مقدار دهی اولیه لباس به آن برای شکل مشخص شده، به طور تصادفی نمونه برداری مقادیر اسکالر از یک توزیع یکنواخت بین -limit و limit ، تولید شده توسط ژنراتور به طور پیش فرض عدد تصادفی، که در آن حد است sqrt(6 / (fanIn + fanOut)) ، و fanIn / fanOut نمایندگی تعدادی از ورودی و خروجی ویژگی های زمینه پذیرای ضرب، در صورت وجود.

    اعلام

    public func glorotUniform<Scalar: TensorFlowFloatingPoint>(
      seed: TensorFlowSeed = Context.local.randomSeed
    ) -> ParameterInitializer<Scalar>
  • بازده یک تابع است که ایجاد یک تانسور با انجام Glorot (خاویر) مقدار دهی اولیه طبیعی برای شکل مشخص شده، به طور تصادفی نمونه برداری مقادیر اسکالر از یک توزیع نرمال کوتاه بر محور 0 با انحراف استاندارد sqrt(2 / (fanIn + fanOut)) ، که در آن fanIn / fanOut در صورت وجود ، تعداد ویژگیهای ورودی و خروجی ضرب در اندازه میدان پذیرش را نشان می دهد.

    اعلام

    public func glorotNormal<Scalar: TensorFlowFloatingPoint>(
      seed: TensorFlowSeed = Context.local.randomSeed
    ) -> ParameterInitializer<Scalar>
  • بازده یک تابع است که ایجاد یک تانسور با انجام او (Kaiming) مقدار دهی اولیه لباس به آن برای شکل مشخص شده، به طور تصادفی نمونه برداری مقادیر اسکالر از یک توزیع یکنواخت بین -limit و limit ، تولید شده توسط ژنراتور به طور پیش فرض عدد تصادفی، که در آن حد است sqrt(6 / fanIn) ، و fanIn نشان دهنده تعدادی از ویژگی های ورودی ضرب زمینه پذیرای، در صورت وجود.

    اعلام

    public func heUniform<Scalar: TensorFlowFloatingPoint>(
      seed: TensorFlowSeed = Context.local.randomSeed
    ) -> ParameterInitializer<Scalar>
  • بازده یک تابع است که ایجاد یک تانسور با انجام او (Kaiming) مقدار دهی اولیه طبیعی برای شکل مشخص شده، به طور تصادفی نمونه برداری مقادیر اسکالر از یک توزیع نرمال کوتاه بر محور 0 با انحراف استاندارد sqrt(2 / fanIn) ، که در آن fanIn نشان دهنده تعدادی از ویژگی های ورودی در صورت وجود ضرب در اندازه میدان پذیرش.

    اعلام

    public func heNormal<Scalar: TensorFlowFloatingPoint>(
      seed: TensorFlowSeed = Context.local.randomSeed
    ) -> ParameterInitializer<Scalar>
  • بازده یک تابع است که ایجاد یک تانسور با انجام LeCun دهی اولیه لباس به آن برای شکل مشخص شده، به طور تصادفی نمونه برداری مقادیر اسکالر از یک توزیع یکنواخت بین -limit و limit ، تولید شده توسط ژنراتور به طور پیش فرض عدد تصادفی، که در آن حد است sqrt(3 / fanIn) ، و fanIn نشان دهنده تعدادی از ویژگی های ورودی ضرب زمینه پذیرای، در صورت وجود.

    اعلام

    public func leCunUniform<Scalar: TensorFlowFloatingPoint>(
      seed: TensorFlowSeed = Context.local.randomSeed
    ) -> ParameterInitializer<Scalar>
  • بازده یک تابع است که ایجاد یک تانسور با انجام LeCun دهی اولیه طبیعی برای شکل مشخص شده، به طور تصادفی نمونه برداری مقادیر اسکالر از یک توزیع نرمال کوتاه بر محور 0 با انحراف استاندارد sqrt(1 / fanIn) ، که در آن fanIn نشان دهنده تعداد ورودی ویژگی های ضرب اندازه میدان پذیرش ، در صورت وجود

    اعلام

    public func leCunNormal<Scalar: TensorFlowFloatingPoint>(
      seed: TensorFlowSeed = Context.local.randomSeed
    ) -> ParameterInitializer<Scalar>
  • تابعی را برمی گرداند که با مقدار دهی اولیه تمام مقادیر آن به صورت تصادفی از توزیع نرمال کوتاه شده ، یک تانسور ایجاد می کند. ارزش تولید به دنبال یک توزیع نرمال با میانگین mean و انحراف استاندارد standardDeviation ، جز این که مقادیر که قدر بیش از دو انحراف استاندارد از میانگین کاهش یافته و resampled.

    اعلام

    public func truncatedNormalInitializer<Scalar: TensorFlowFloatingPoint>(
      mean: Tensor<Scalar> = Tensor<Scalar>(0),
      standardDeviation: Tensor<Scalar> = Tensor<Scalar>(1),
      seed: TensorFlowSeed = Context.local.randomSeed
    ) -> ParameterInitializer<Scalar>

    مولفه های

    mean

    میانگین توزیع نرمال

    standardDeviation

    انحراف استاندارد توزیع نرمال

    مقدار بازگشتی

    یک تابع اولیه ساز پارامتر معمولی کوتاه شده.

  • اعلام

    public func == (lhs: TFETensorHandle, rhs: TFETensorHandle) -> Bool
  • ماتریس هویت یا دسته ای از ماتریس ها را برمی گرداند.

    اعلام

    public func eye<Scalar: Numeric>(
      rowCount: Int,
      columnCount: Int? = nil,
      batchShape: [Int] = [],
      on device: Device = .default
    ) -> Tensor<Scalar>

    مولفه های

    rowCount

    تعداد سطرها در هر ماتریس دسته ای.

    columnCount

    تعداد ستون ها در هر ماتریس دسته ای.

    batchShape

    ابعاد دسته ای اصلی تانسور برگشتی

  • ردپای یک ماتریس دسته ای اختیاری را محاسبه می کند. ردیابی مجموع مورب اصلی هر ماتریس داخلی است.

    ورودی یک تانسور با شکل است [..., M, N] . خروجی یک تانسور با شکل است [...] .

    پیش شرط

    matrix باید یک تانسور با شکل باشد [..., M, N] .

    اعلام

    @differentiable(wrt: matrix)
    public func trace<T>(_ matrix: Tensor<T>) -> Tensor<T> where T : Numeric, T : TensorFlowScalar

    مولفه های

    matrix

    یک تانسور شکل [..., M, N] .

  • تجزیه Cholesky یک یا چند ماتریس مربعی را برمی گرداند.

    ورودی یک تانسور شکل است [..., M, M] که 2 ابعاد ترین داخلی را تشکیل می ماتریس مربع.

    ورودی باید متقارن و مثبت باشد. فقط قسمت پایین مثلثی ورودی برای این عملیات استفاده می شود. قسمت بالا مثلثی خوانده نمی شود.

    خروجی یک تانسور از همان شکل به عنوان ورودی شامل تجزیه Cholesky برای همه submatrices ورودی است [..., :, :] .

    اعلام

    @differentiable
    public func cholesky<T>(_ x: Tensor<T>) -> Tensor<T> where T : TensorFlowFloatingPoint

    مولفه های

    input

    یک تانسور شکل [..., M, M] .

  • بازده راه حل x به سیستم معادلات خطی ارائه شده توسط Ax = b .

    پیش شرط

    matrix باید یک تانسور با شکل باشد [..., M, M] .

    پیش شرط

    rhs باید یک تانسور با شکل باشد [..., M, K] .

    اعلام

    @differentiable
    public func triangularSolve<T: TensorFlowFloatingPoint>(
      matrix: Tensor<T>,
      rhs: Tensor<T>,
      lower: Bool = true,
      adjoint: Bool = false
    ) -> Tensor<T>

    مولفه های

    matrix

    ورودی مثلثی ضریب ماتریس، به نمایندگی از در A Ax = b .

    rhs

    ارزش سمت راست، به نمایندگی از b در Ax = b .

    lower

    آیا matrix مثلثی پایین تر (است true ) یا مثلثی بالا ( false ). مقدار پیش فرض true .

    adjoint

    اگر true ، حل با الحاقی از matrix به جای matrix . مقدار پیش فرض false .

    مقدار بازگشتی

    راه حل x به سیستم معادلات خطی ارائه شده توسط Ax = b . x است همان شکل b .

  • محاسبه از دست دادن L1 بین expected و predicted . loss = reduction(abs(expected - predicted))

    اعلام

    @differentiable(wrt: predicted)
    @differentiable(wrt: (predicted, expected)
    public func l1Loss<Scalar: TensorFlowFloatingPoint>(
      predicted: Tensor<Scalar>,
      expected: Tensor<Scalar>,
      reduction: @differentiable (Tensor<Scalar>) -> Tensor<Scalar> = _sum
    ) -> Tensor<Scalar>

    مولفه های

    predicted

    خروجی های پیش بینی شده از یک شبکه عصبی

    expected

    مقادیر مورد انتظار ، یعنی اهداف ، که با خروجی صحیح مطابقت دارد.

    reduction

    کاهش برای اعمال بر ارزشهای ضرر محاسبه شده از نظر عنصر.

  • محاسبه از دست دادن L2 دو expected و predicted . loss = reduction(square(expected - predicted))

    اعلام

    @differentiable(wrt: predicted)
    @differentiable(wrt: (predicted, expected)
    public func l2Loss<Scalar: TensorFlowFloatingPoint>(
      predicted: Tensor<Scalar>,
      expected: Tensor<Scalar>,
      reduction: @differentiable (Tensor<Scalar>) -> Tensor<Scalar> = _sum
    ) -> Tensor<Scalar>

    مولفه های

    predicted

    خروجی های پیش بینی شده از یک شبکه عصبی

    expected

    مقادیر مورد انتظار ، یعنی اهداف ، که با خروجی صحیح مطابقت دارد.

    reduction

    کاهش برای اعمال بر ارزشهای ضرر محاسبه شده از نظر عنصر.

  • میانگین تفاوت مطلق بین برچسب ها و پیش بینی ها را محاسبه می کند. loss = mean(abs(expected - predicted))

    اعلام

    @differentiable(wrt: predicted)
    @differentiable(wrt: (predicted, expected)
    public func meanAbsoluteError<Scalar: TensorFlowFloatingPoint>(
      predicted: Tensor<Scalar>,
      expected: Tensor<Scalar>
    ) -> Tensor<Scalar>

    مولفه های

    predicted

    خروجی های پیش بینی شده از یک شبکه عصبی

    expected

    مقادیر مورد انتظار ، یعنی اهداف ، که با خروجی صحیح مطابقت دارد.

  • میانگین مربعات خطا بین برچسب ها و پیش بینی ها را محاسبه می کند. loss = mean(square(expected - predicted))

    اعلام

    @differentiable(wrt: predicted)
    @differentiable(wrt: (predicted, expected)
    public func meanSquaredError<Scalar: TensorFlowFloatingPoint>(
      predicted: Tensor<Scalar>,
      expected: Tensor<Scalar>
    ) -> Tensor<Scalar>

    مولفه های

    predicted

    خروجی های پیش بینی شده از یک شبکه عصبی

    expected

    مقادیر مورد انتظار ، یعنی اهداف ، که با خروجی صحیح مطابقت دارد.

  • محاسبه میانگین خطا لگاریتمی مربع بین predicted و expected loss = square(log(expected) - log(predicted))

    توجه داشته باشید

    نوشته تانسور منفی خواهد شد در کلمپ 0 برای جلوگیری از رفتار لگاریتمی تعریف نشده، به عنوان log(_:) برای اعداد حقیقی منفی تعریف نشده است.

    اعلام

    @differentiable(wrt: predicted)
    @differentiable(wrt: (predicted, expected)
    public func meanSquaredLogarithmicError<Scalar: TensorFlowFloatingPoint>(
      predicted: Tensor<Scalar>,
      expected: Tensor<Scalar>
    ) -> Tensor<Scalar>

    مولفه های

    predicted

    خروجی های پیش بینی شده از یک شبکه عصبی

    expected

    مقادیر مورد انتظار ، یعنی اهداف ، که با خروجی صحیح مطابقت دارد.

  • محاسبه درصد خطا مطلق متوسط بین predicted و expected . loss = 100 * mean(abs((expected - predicted) / abs(expected)))

    اعلام

    @differentiable(wrt: predicted)
    @differentiable(wrt: (predicted, expected)
    public func meanAbsolutePercentageError<Scalar: TensorFlowFloatingPoint>(
      predicted: Tensor<Scalar>,
      expected: Tensor<Scalar>
    ) -> Tensor<Scalar>

    مولفه های

    predicted

    خروجی های پیش بینی شده از یک شبکه عصبی

    expected

    مقادیر مورد انتظار ، یعنی اهداف ، که با خروجی صحیح مطابقت دارد.

  • محاسبه از دست دادن لولا بین predicted و expected . loss = reduction(max(0, 1 - predicted * expected)) expected انتظار می رود ارزش آن را -1 یا 1 باشد.

    اعلام

    @differentiable(wrt: predicted)
    @differentiable(wrt: (predicted, expected)
    public func hingeLoss<Scalar: TensorFlowFloatingPoint>(
      predicted: Tensor<Scalar>,
      expected: Tensor<Scalar>,
      reduction: @differentiable (Tensor<Scalar>) -> Tensor<Scalar> = _mean
    ) -> Tensor<Scalar>

    مولفه های

    predicted

    خروجی های پیش بینی شده از یک شبکه عصبی

    expected

    مقادیر مورد انتظار ، یعنی اهداف ، که با خروجی صحیح مطابقت دارد.

    reduction

    کاهش برای اعمال بر ارزشهای ضرر محاسبه شده از نظر عنصر.

  • محاسبه از دست دادن لولا مربع بین predicted و expected . loss = reduction(square(max(0, 1 - predicted * expected))) expected انتظار می رود ارزش آن را -1 یا 1 باشد.

    اعلام

    @differentiable(wrt: predicted)
    @differentiable(wrt: (predicted, expected)
    public func squaredHingeLoss<Scalar: TensorFlowFloatingPoint>(
      predicted: Tensor<Scalar>,
      expected: Tensor<Scalar>,
      reduction: @differentiable (Tensor<Scalar>) -> Tensor<Scalar> = _mean
    ) -> Tensor<Scalar>

    مولفه های

    predicted

    خروجی های پیش بینی شده از یک شبکه عصبی

    expected

    مقادیر مورد انتظار ، یعنی اهداف ، که با خروجی صحیح مطابقت دارد.

    reduction

    کاهش برای اعمال بر ارزشهای ضرر محاسبه شده از نظر عنصر.

  • محاسبه از دست دادن لولا طبقه بین predicted و expected . loss = maximum(negative - positive + 1, 0) که در آن negative = max((1 - expected) * predicted) و positive = sum(predicted * expected)

    اعلام

    @differentiable(wrt: predicted)
    @differentiable(wrt: (predicted, expected)
    public func categoricalHingeLoss<Scalar: TensorFlowFloatingPoint>(
      predicted: Tensor<Scalar>,
      expected: Tensor<Scalar>,
      reduction: @differentiable (Tensor<Scalar>) -> Tensor<Scalar> = _mean
    ) -> Tensor<Scalar>

    مولفه های

    predicted

    خروجی های پیش بینی شده از یک شبکه عصبی

    expected

    مقادیر مورد انتظار ، یعنی اهداف ، که با خروجی صحیح مطابقت دارد.

    reduction

    کاهش برای اعمال بر ارزشهای ضرر محاسبه شده از نظر عنصر.

  • لگاریتم کسینوس هذلولی خطای پیش بینی را محاسبه می کند. logcosh = log((exp(x) + exp(-x))/2) ، که در آن x است خطا predicted - expected

    اعلام

    @differentiable(wrt: predicted)
    @differentiable(wrt: (predicted, expected)
    public func logCoshLoss<Scalar: TensorFlowFloatingPoint>(
      predicted: Tensor<Scalar>,
      expected: Tensor<Scalar>,
      reduction: @differentiable (Tensor<Scalar>) -> Tensor<Scalar> = _mean
    ) -> Tensor<Scalar>

    مولفه های

    predicted

    خروجی های پیش بینی شده از یک شبکه عصبی

    expected

    مقادیر مورد انتظار ، یعنی اهداف ، که با خروجی صحیح مطابقت دارد.

    reduction

    کاهش برای اعمال بر ارزشهای ضرر محاسبه شده از نظر عنصر.

  • محاسبه از دست دادن پواسون بین پیش بینی و انتظار می رود از دست دادن پواسون میانگین عناصر است Tensor predicted - expected * log(predicted) .

    اعلام

    @differentiable(wrt: predicted)
    @differentiable(wrt: (predicted, expected)
    public func poissonLoss<Scalar: TensorFlowFloatingPoint>(
      predicted: Tensor<Scalar>,
      expected: Tensor<Scalar>,
      reduction: @differentiable (Tensor<Scalar>) -> Tensor<Scalar> = _mean
    ) -> Tensor<Scalar>

    مولفه های

    predicted

    خروجی های پیش بینی شده از یک شبکه عصبی

    expected

    مقادیر مورد انتظار ، یعنی اهداف ، که با خروجی صحیح مطابقت دارد.

    reduction

    کاهش برای اعمال بر ارزشهای ضرر محاسبه شده از نظر عنصر.

  • از دست دادن واگرایی محاسبه کولبک-Leibler بین expected و predicted . loss = reduction(expected * log(expected / predicted))

    اعلام

    @differentiable(wrt: predicted)
    @differentiable(wrt: (predicted, expected)
    public func kullbackLeiblerDivergence<Scalar: TensorFlowFloatingPoint>(
      predicted: Tensor<Scalar>,
      expected: Tensor<Scalar>,
      reduction: @differentiable (Tensor<Scalar>) -> Tensor<Scalar> = _sum
    ) -> Tensor<Scalar>

    مولفه های

    predicted

    خروجی های پیش بینی شده از یک شبکه عصبی

    expected

    مقادیر مورد انتظار ، یعنی اهداف ، که با خروجی صحیح مطابقت دارد.

    reduction

    کاهش برای اعمال بر ارزشهای ضرر محاسبه شده از نظر عنصر.

  • آنتروپی متقاطع softmax کمی (آنتروپی متقاطع متقاطع) بین logits و label ها را محاسبه می کند. وقتی دو یا چند کلاس برچسب وجود دارد ، از این تابع از دست دادن crossentropy استفاده کنید. ما انتظار داریم که برچسب ها به صورت اعداد صحیح ارائه شوند. باید وجود داشته باشد # classes مقادیر ممیز شناور در هر ویژگی برای logits و یک شناور ارزش نقطه در هر ویژگی برای expected .

    اعلام

    @differentiable(wrt: logits)
    public func softmaxCrossEntropy<Scalar: TensorFlowFloatingPoint>(
      logits: Tensor<Scalar>,
      labels: Tensor<Int32>,
      reduction: @differentiable (Tensor<Scalar>) -> Tensor<Scalar> = _mean
    ) -> Tensor<Scalar>

    مولفه های

    logits

    خروجی های رمزگذاری شده از یک شبکه عصبی

    labels

    شاخص (صفر نمایه) خروجی های صحیح.

    reduction

    کاهش برای اعمال بر ارزشهای ضرر محاسبه شده از نظر عنصر.

  • آنتروپی متقاطع softmax کمی (آنتروپی متقاطع متقاطع) بین logits و label ها را محاسبه می کند. وقتی دو یا چند کلاس برچسب وجود دارد ، از این تابع از دست دادن crossentropy استفاده کنید. ما انتظار داریم که برچسب به فراهم شود ارائه شده در one_hot نمایندگی. باید وجود داشته باشد # classes مقادیر ممیز شناور در هر ویژگی.

    اعلام

    @differentiable(wrt: logits)
    public func softmaxCrossEntropy<Scalar: TensorFlowFloatingPoint>(
      logits: Tensor<Scalar>,
      probabilities: Tensor<Scalar>,
      reduction: @differentiable (Tensor<Scalar>) -> Tensor<Scalar> = _mean
    ) -> Tensor<Scalar>

    مولفه های

    logits

    احتمالات ثبت نشده بدون مقیاس از یک شبکه عصبی

    probabilities

    مقادیر احتمالی که با خروجی صحیح مطابقت دارد. هر سطر باید یک توزیع احتمال معتبر باشد.

    reduction

    کاهش برای اعمال بر ارزشهای ضرر محاسبه شده از نظر عنصر.

  • آنتروپی متقاطع سیگموئید (آنتروپی متقاطع دوتایی) بین logits و label ها را محاسبه می کند. هنگامی که فقط دو کلاس برچسب وجود دارد (با فرض 0 و 1) از این ضرر آنتروپی متقابل استفاده کنید. برای هر مثال ، باید یک مقدار واحد شناور در هر پیش بینی وجود داشته باشد.

    اعلام

    @differentiable(wrt: logits)
    @differentiable(wrt: (logits, labels)
    public func sigmoidCrossEntropy<Scalar: TensorFlowFloatingPoint>(
      logits: Tensor<Scalar>,
      labels: Tensor<Scalar>,
      reduction: @differentiable (Tensor<Scalar>) -> Tensor<Scalar> = _mean
    ) -> Tensor<Scalar>

    مولفه های

    logits

    خروجی بدون مقیاس یک شبکه عصبی

    labels

    مقادیر صحیح که با خروجی صحیح مطابقت دارد.

    reduction

    کاهش برای اعمال بر ارزشهای ضرر محاسبه شده از نظر عنصر.

  • محاسبه از دست دادن هوبر بین predicted و expected .

    برای هر مقدار x در error = expected - predicted :

    اعلام

    @differentiable(wrt: predicted)
    @differentiable(wrt: (predicted, expected)
    public func huberLoss<Scalar: TensorFlowFloatingPoint>(
      predicted: Tensor<Scalar>,
      expected: Tensor<Scalar>,
      delta: Scalar,
      reduction: @differentiable (Tensor<Scalar>) -> Tensor<Scalar> = _sum
    ) -> Tensor<Scalar>

    مولفه های

    predicted

    خروجی های پیش بینی شده از یک شبکه عصبی

    expected

    مقادیر مورد انتظار ، یعنی اهداف ، که با خروجی صحیح مطابقت دارد.

    delta

    یک مقیاس مقیاس شناور نشان دهنده نقطه ای است که در آن تابع تلفات Huber از درجه دوم به خطی تغییر می کند.

    reduction

    کاهش برای اعمال بر ارزشهای ضرر محاسبه شده از نظر عنصر.

  • مقدار مطلق عنصر تانسور مشخص شده را بر می گرداند.

    اعلام

    @differentiable
    public func abs<T>(_ x: Tensor<T>) -> Tensor<T> where T : SignedNumeric, T : TensorFlowScalar
  • لگاریتم طبیعی تنسور مشخص شده را از نظر عنصر بر می گرداند.

    اعلام

    @differentiable
    public func log<T>(_ x: Tensor<T>) -> Tensor<T> where T : TensorFlowFloatingPoint
  • لگاریتم پایه دو از عنصر تانسور مشخص را برمی گرداند.

    اعلام

    @differentiable
    public func log2<T>(_ x: Tensor<T>) -> Tensor<T> where T : TensorFlowFloatingPoint
  • لگاریتم پایه ده از عنصر تانسور مشخص را بر می گرداند.

    اعلام

    @differentiable
    public func log10<T>(_ x: Tensor<T>) -> Tensor<T> where T : TensorFlowFloatingPoint
  • لگاریتم از 1 + x عنصر و حکیم است.

    اعلام

    @differentiable
    public func log1p<T>(_ x: Tensor<T>) -> Tensor<T> where T : TensorFlowFloatingPoint
  • بازده log(1 - exp(x)) با استفاده از روش عددی پایدار.

    توجه داشته باشید

    : این رویکرد در معادله 7 از نشان داده شده است https://cran.r-project.org/web/packages/Rmpfr/vignettes/log1mexp-note.pdf .

    اعلام

    @differentiable
    public func log1mexp<T>(_ x: Tensor<T>) -> Tensor<T> where T : TensorFlowFloatingPoint
  • سینوس تنسور مشخص شده را از نظر عنصر برمی گرداند.

    اعلام

    @differentiable
    public func sin<T>(_ x: Tensor<T>) -> Tensor<T> where T : TensorFlowFloatingPoint
  • کسینوس تنسور مشخص شده را از نظر عنصر برمی گرداند.

    اعلام

    @differentiable
    public func cos<T>(_ x: Tensor<T>) -> Tensor<T> where T : TensorFlowFloatingPoint
  • مماس عنصر تانسور مشخص شده را برمی گرداند.

    اعلام

    @differentiable
    public func tan<T>(_ x: Tensor<T>) -> Tensor<T> where T : TensorFlowFloatingPoint
  • سینوس هایپربولیک تنسور مشخص شده را از نظر عنصر برمی گرداند.

    اعلام

    @differentiable
    public func sinh<T>(_ x: Tensor<T>) -> Tensor<T> where T : TensorFlowFloatingPoint
  • کسینوس هایپربولیک تنسور مشخص شده را از نظر عنصر برمی گرداند.

    اعلام

    @differentiable
    public func cosh<T>(_ x: Tensor<T>) -> Tensor<T> where T : TensorFlowFloatingPoint
  • بر حسب عنصر مماس هذلولی تانسور مشخص شده را برمی گرداند.

    اعلام

    @differentiable
    public func tanh<T>(_ x: Tensor<T>) -> Tensor<T> where T : TensorFlowFloatingPoint
  • کسینوس معکوس عنصر تانسور مشخص شده را برمی گرداند.

    اعلام

    @differentiable
    public func acos<T>(_ x: Tensor<T>) -> Tensor<T> where T : TensorFlowFloatingPoint
  • سینوس معکوس عنصر تانسور مشخص شده را بر می گرداند.

    اعلام

    @differentiable
    public func asin<T>(_ x: Tensor<T>) -> Tensor<T> where T : TensorFlowFloatingPoint
  • از نظر عنصر مماس معکوس تانسور مشخص را برمی گرداند.

    اعلام

    @differentiable
    public func atan<T>(_ x: Tensor<T>) -> Tensor<T> where T : TensorFlowFloatingPoint
  • کسینوس هذلولی معکوس عنصر تانسور مشخص را برمی گرداند.

    اعلام

    @differentiable
    public func acosh<T>(_ x: Tensor<T>) -> Tensor<T> where T : TensorFlowFloatingPoint
  • سینوس هایپربولیک معکوس عنصر تانسور مشخص را برمی گرداند.

    اعلام

    @differentiable
    public func asinh<T>(_ x: Tensor<T>) -> Tensor<T> where T : TensorFlowFloatingPoint
  • مماس هذلولی معکوس عنصر تانسور مشخص را بر می گرداند.

    اعلام

    @differentiable
    public func atanh<T>(_ x: Tensor<T>) -> Tensor<T> where T : TensorFlowFloatingPoint
  • ریشه مربعی عنصر تانسور مشخص شده را برمی گرداند.

    اعلام

    @differentiable
    public func sqrt<T>(_ x: Tensor<T>) -> Tensor<T> where T : TensorFlowFloatingPoint
  • ریشه مربع معکوس عنصر تانسور مشخص شده را برمی گرداند.

    اعلام

    @differentiable
    public func rsqrt<T>(_ x: Tensor<T>) -> Tensor<T> where T : TensorFlowFloatingPoint
  • از لحاظ عنصری تانسور مشخص شده را بر می گرداند.

    اعلام

    @differentiable
    public func exp<T>(_ x: Tensor<T>) -> Tensor<T> where T : TensorFlowFloatingPoint
  • دو مورد را که از نظر عنصر تانسور مشخص شده برمی گرداند.

    اعلام

    @differentiable
    public func exp2<T>(_ x: Tensor<T>) -> Tensor<T> where T : TensorFlowFloatingPoint
  • ده را به توان عنصر تانسور مشخص شده برمی گرداند.

    اعلام

    @differentiable
    public func exp10<T>(_ x: Tensor<T>) -> Tensor<T> where T : TensorFlowFloatingPoint
  • بازگشت نمایی از x - 1 عنصر و حکیم است.

    اعلام

    @differentiable
    public func expm1<T>(_ x: Tensor<T>) -> Tensor<T> where T : TensorFlowFloatingPoint
  • مقادیر تانسور مشخص گرد شده به نزدیکترین عدد صحیح ، از نظر عنصر.

    اعلام

    @differentiable
    public func round<T>(_ x: Tensor<T>) -> Tensor<T> where T : TensorFlowFloatingPoint
  • سقف تنسور مشخص شده را از نظر عنصر برمی گرداند.

    اعلام

    @differentiable
    public func ceil<T>(_ x: Tensor<T>) -> Tensor<T> where T : TensorFlowFloatingPoint
  • از نظر عنصر تانسور مشخص شده کف را برمی گرداند.

    اعلام

    @differentiable
    public func floor<T>(_ x: Tensor<T>) -> Tensor<T> where T : TensorFlowFloatingPoint
  • نشانه ای از علامت تانسور مشخص شده را از نظر عنصر برمی گرداند. به طور خاص، محاسبه y = sign(x) = -1 اگر x < 0 ؛ 0 اگر x == 0 ؛ 1 اگر x > 0 .

    اعلام

    @differentiable
    public func sign<T>(_ x: Tensor<T>) -> Tensor<T> where T : Numeric, T : TensorFlowScalar
  • سیگموئید عنصر تانسور مشخص شده را برمی گرداند. به طور خاص، محاسبه 1 / (1 + exp(-x)) .

    اعلام

    @differentiable
    public func sigmoid<T>(_ x: Tensor<T>) -> Tensor<T> where T : TensorFlowFloatingPoint
  • سیگموئید ورود به سیستم عنصر تانسور مشخص را برمی گرداند. به طور خاص، log(1 / (1 + exp(-x))) . برای پایداری عددی، استفاده می کنیم -softplus(-x) .

    اعلام

    @differentiable
    public func logSigmoid<T>(_ x: Tensor<T>) -> Tensor<T> where T : TensorFlowFloatingPoint
  • نرم افزاری را از نظر عنصر تانسور مشخص برمی گرداند. به طور خاص، محاسبه log(exp(features) + 1) .

    اعلام

    @differentiable
    public func softplus<T>(_ features: Tensor<T>) -> Tensor<T> where T : TensorFlowFloatingPoint
  • علامت نرم عنصر تانسور مشخص شده را برمی گرداند. به طور خاص، محاسبه features/ (abs(features) + 1) .

    اعلام

    @differentiable
    public func softsign<T>(_ features: Tensor<T>) -> Tensor<T> where T : TensorFlowFloatingPoint
  • softmax تانسور مشخص شده را در امتداد آخرین محور برمی گرداند. به طور خاص، محاسبه exp(x) / exp(x).sum(alongAxes: -1) .

    اعلام

    @differentiable
    public func softmax<T>(_ x: Tensor<T>) -> Tensor<T> where T : TensorFlowFloatingPoint
  • softmax تانسور مشخص شده را در امتداد محور مشخص برمی گرداند. به طور خاص، محاسبه exp(x) / exp(x).sum(alongAxes: axis) .

    اعلام

    @differentiable
    public func softmax<T>(_ x: Tensor<T>, alongAxis axis: Int) -> Tensor<T> where T : TensorFlowFloatingPoint
  • log-softmax تانسور مشخص شده را از نظر عنصر بر می گرداند.

    اعلام

    @differentiable
    public func logSoftmax<T>(_ x: Tensor<T>) -> Tensor<T> where T : TensorFlowFloatingPoint
  • با اعمال یک واحد خطی نمایی ، یک تانسور را برمی گرداند. به طور خاص، محاسبه exp(x) - 1 اگر <0، x در غیر این صورت. مشاهده سریع و دقیق عمیق آموزش شبکه های نمایی خطی واحد (ELUs)

    اعلام

    @differentiable
    public func elu<T>(_ x: Tensor<T>) -> Tensor<T> where T : TensorFlowFloatingPoint
  • فعالسازی واحد خطی گاوسی (GELU) عنصر تانسور مشخص شده را بر می گرداند.

    به طور خاص، gelu تخمین xP(X <= x) ، که در آن P(X <= x) توزیع تجمعی استاندارد گاوسی است، با محاسبه: X * [0.5 * (1 + tanh [√ (2 / π) * (X + 0.044715 * x^3)])].

    مشاهده خطا گاوسی خطی واحد .

    اعلام

    @differentiable
    public func gelu<T>(_ x: Tensor<T>) -> Tensor<T> where T : TensorFlowFloatingPoint
  • با اعمال تابع فعالسازی ReLU به عنصر تانسور مشخص شده ، یک تانسور را برمی گرداند. به طور خاص، محاسبه max(0, x) .

    اعلام

    @differentiable
    public func relu<T>(_ x: Tensor<T>) -> Tensor<T> where T : TensorFlowFloatingPoint
  • بازده یک تانسور با استفاده از تابع فعال سازی ReLU6، یعنی min(max(0, x), 6) .

    اعلام

    @differentiable
    public func relu6<T>(_ x: Tensor<T>) -> Tensor<T> where T : TensorFlowFloatingPoint
  • با اعمال تابع فعالسازی نشتی ReLU به عنصر تانسور مشخص شده ، یک تانسور را برمی گرداند. به طور خاص، محاسبه max(x, x * alpha) .

    اعلام

    @differentiable(wrt: x)
    public func leakyRelu<T: TensorFlowFloatingPoint>(
      _ x: Tensor<T>,
      alpha: Double = 0.2
    ) -> Tensor<T>
  • بازده یک تانسور با استفاده از تابع فعال سازی SeLU، یعنی scale * alpha * (exp(x) - 1) اگر x < 0 ، و scale * x در غیر این صورت.

    توجه داشته باشید

    این طراحی شده است تا همراه با مقداردهنده های لایه مقیاس بندی واریانس استفاده شود. لطفا به شبکه های عصبی خود عادی برای اطلاعات بیشتر.

    اعلام

    @differentiable
    public func selu<T>(_ x: Tensor<T>) -> Tensor<T> where T : TensorFlowFloatingPoint
  • بازده یک تانسور با استفاده از تابع فعال سازی صدای فش فش، یعنی x * sigmoid(x) .

    منبع: (. راماچاندران و همکاران 2017) "جستجو برای توابع فعال سازی" https://arxiv.org/abs/1710.05941

    اعلام

    @differentiable
    public func swish<T>(_ x: Tensor<T>) -> Tensor<T> where T : TensorFlowFloatingPoint
  • بازده یک تانسور با استفاده از تابع سیگموئید سخت فعال سازی، یعنی Relu6(x+3)/6 .

    منبع: "جستجو برای MobileNetV3" (هوارد و همکاران 2019) https://arxiv.org/abs/1905.02244

    اعلام

    @differentiable
    public func hardSigmoid<T>(_ x: Tensor<T>) -> Tensor<T> where T : TensorFlowFloatingPoint
  • بازده یک تانسور با استفاده از تابع فعال سازی صدای فش فش سخت، یعنی x * Relu6(x+3)/6 .

    منبع: "جستجو برای MobileNetV3" (هوارد و همکاران 2019) https://arxiv.org/abs/1905.02244

    اعلام

    @differentiable
    public func hardSwish<T>(_ x: Tensor<T>) -> Tensor<T> where T : TensorFlowFloatingPoint
  • بازده یک تانسور با استفاده از تابع فعال سازی و میش، یعنی x * tanh(softplus(x)) .

    منبع: "میش: تابع خود منظم غیر یکنواخت عصبی فعال سازی" https://arxiv.org/abs/1908.08681

    اعلام

    @differentiable
    public func mish<T>(_ x: Tensor<T>) -> Tensor<T> where T : TensorFlowFloatingPoint
  • توان تانسور اول را به تانسور دوم برمی گرداند.

    اعلام

    @differentiable
    public func pow<T>(_ lhs: Tensor<T>, _ rhs: Tensor<T>) -> Tensor<T> where T : TensorFlowFloatingPoint
  • قدرت اسکالر را به تانسور بر می گرداند و مقیاس را پخش می کند.

    اعلام

    @differentiable(wrt: rhs)
    public func pow<T>(_ lhs: T, _ rhs: Tensor<T>) -> Tensor<T> where T : TensorFlowFloatingPoint
  • قدرت تانسور را به اسکالر بر می گرداند و مقیاس را پخش می کند.

    اعلام

    @differentiable(wrt: lhs)
    public func pow<T>(_ lhs: Tensor<T>, _ rhs: T) -> Tensor<T> where T : TensorFlowFloatingPoint
  • قدرت تانسور را به اسکالر بر می گرداند و مقیاس را پخش می کند.

    اعلام

    @differentiable
    public func pow<T>(_ x: Tensor<T>, _ n: Int) -> Tensor<T> where T : TensorFlowFloatingPoint
  • بازگرداندن عنصر عاقلانه n هفتم ریشه تانسور.

    اعلام

    @differentiable
    public func root<T>(_ x: Tensor<T>, _ n: Int) -> Tensor<T> where T : TensorFlowFloatingPoint
  • بازده تفاوت های مربع بین x و y .

    اعلام

    @differentiable
    public func squaredDifference<T>(_ x: Tensor<T>, _ y: Tensor<T>) -> Tensor<T> where T : Numeric, T : TensorFlowScalar

    مقدار بازگشتی

    (x - y) ^ 2 .

  • حداکثر دو تنسور را از نظر عنصر برمی گرداند.

    توجه داشته باشید

    max از پخش برنامه ها.

    اعلام

    @differentiable
    public func max<T>(_ lhs: Tensor<T>, _ rhs: Tensor<T>) -> Tensor<T> where T : Comparable, T : Numeric, T : TensorFlowScalar
  • حداکثر عنصر اسکالر و تانسور را باز می گرداند و مقیاس را پخش می کند.

    اعلام

    @differentiable(wrt: rhs)
    public func max<T>(_ lhs: T, _ rhs: Tensor<T>) -> Tensor<T> where T : Comparable, T : Numeric, T : TensorFlowScalar
  • حداکثر عنصر اسکالر و تانسور را باز می گرداند و مقیاس را پخش می کند.

    اعلام

    @differentiable(wrt: lhs)
    public func max<T>(_ lhs: Tensor<T>, _ rhs: T) -> Tensor<T> where T : Comparable, T : Numeric, T : TensorFlowScalar
  • حداقل عنصر دو تنسور را برمی گرداند.

    توجه داشته باشید

    min از پخش برنامه ها.

    اعلام

    @differentiable
    public func min<T>(_ lhs: Tensor<T>, _ rhs: Tensor<T>) -> Tensor<T> where T : Comparable, T : Numeric, T : TensorFlowScalar
  • حداقل عنصر اسکالر و تانسور را باز می گرداند و مقیاس را پخش می کند.

    اعلام

    @differentiable(wrt: rhs)
    public func min<T>(_ lhs: T, _ rhs: Tensor<T>) -> Tensor<T> where T : Comparable, T : Numeric, T : TensorFlowScalar
  • حداقل عنصر اسکالر و تانسور را باز می گرداند و مقیاس را پخش می کند.

    اعلام

    @differentiable(wrt: lhs)
    public func min<T>(_ lhs: Tensor<T>, _ rhs: T) -> Tensor<T> where T : Comparable, T : Numeric, T : TensorFlowScalar
  • بازگشت شباهت کسینوسی بین x و y .

    اعلام

    @differentiable
    public func cosineSimilarity<Scalar: TensorFlowFloatingPoint>(
      _ x: Tensor<Scalar>,
      _ y: Tensor<Scalar>
    ) -> Tensor<Scalar>
  • بازده فاصله کسینوس بین x و y . فاصله کسینوس است تعریف می شود 1 - cosineSimilarity(x, y) .

    اعلام

    @differentiable
    public func cosineDistance<Scalar: TensorFlowFloatingPoint>(
      _ x: Tensor<Scalar>,
      _ y: Tensor<Scalar>
    ) -> Tensor<Scalar>
  • ضرب ماتریس را با یک تانسور دیگر انجام می دهد و نتیجه را تولید می کند.

    اعلام

    @differentiable
    public func matmul<Scalar: Numeric>(
      _ lhs: Tensor<Scalar>,
      transposed transposeLhs: Bool = false,
      _ rhs: Tensor<Scalar>,
      transposed transposeRhs: Bool = false
    ) -> Tensor<Scalar>
  • یک کانولوشن 1 بعدی با ورودی ، فیلتر ، گام و پد مشخص شده برمی گرداند.

    پیش شرط

    input باید رتبه دارند 3 .

    پیش شرط

    filter باید رتبه 3 دارند.

    اعلام

    @differentiable(wrt: (input, filter)
    public func conv1D<Scalar: TensorFlowFloatingPoint>(
      _ input: Tensor<Scalar>,
      filter: Tensor<Scalar>,
      stride: Int = 1,
      padding: Padding = .valid,
      dilation: Int = 1
    ) -> Tensor<Scalar>

    مولفه های

    input

    ورودی.

    filter

    فیلتر کانولوشن

    stride

    گام بلند فیلتر کشویی.

    padding

    بالشتک برای عملیات.

    dilation

    عامل اتساع

  • یک کانولوشن 2 بعدی با ورودی ، فیلتر ، گام ها و پد مشخص شده برمی گرداند.

    پیش شرط

    input باید رتبه دارند 4 .

    پیش شرط

    filter باید رتبه 4 است.

    اعلام

    @differentiable(wrt: (input, filter)
    public func conv2D<Scalar: TensorFlowFloatingPoint>(
      _ input: Tensor<Scalar>,
      filter: Tensor<Scalar>,
      strides: (Int, Int, Int, Int) = (1, 1, 1, 1),
      padding: Padding = .valid,
      dilations: (Int, Int, Int, Int) = (1, 1, 1, 1)
    ) -> Tensor<Scalar>

    مولفه های

    input

    ورودی.

    filter

    فیلتر کانولوشن

    strides

    مراحل فیلتر کشویی برای هر بعد ورودی.

    padding

    بالشتک برای عملیات

    dilations

    ضریب اتساع برای هر بعد ورودی.

  • یک کانولوشن جابجایی شده دو بعدی با ورودی ، فیلتر ، گام ها و پد مشخص شده را برمی گرداند.

    پیش شرط

    input باید رتبه دارند 4 .

    پیش شرط

    filter باید رتبه 4 است.

    اعلام

    @differentiable(wrt: (input, filter)
    public func transposedConv2D<Scalar: TensorFlowFloatingPoint>(
      _ input: Tensor<Scalar>,
      shape: [Int64],
      filter: Tensor<Scalar>,
      strides: (Int, Int, Int, Int) = (1, 1, 1, 1),
      padding: Padding = .valid,
      dilations: (Int, Int, Int, Int) = (1, 1, 1, 1)
    ) -> Tensor<Scalar>

    مولفه های

    input

    ورودی.

    shape

    شکل خروجی عمل تخلیه

    filter

    فیلتر کانولوشن

    strides

    مراحل فیلتر کشویی برای هر بعد ورودی.

    padding

    بالشتک برای عملیات

    dilations

    ضریب اتساع برای هر بعد ورودی.

  • یک کانولوشن سه بعدی با ورودی مشخص شده ، فیلتر ، گام ها ، بالشتک و اتساع باز می گرداند.

    پیش شرط

    input باید رتبه دارند 5 .

    پیش شرط

    filter باید رتبه 5 است.

    اعلام

    @differentiable(wrt: (input, filter)
    public func conv3D<Scalar: TensorFlowFloatingPoint>(
      _ input: Tensor<Scalar>,
      filter: Tensor<Scalar>,
      strides: (Int, Int, Int, Int, Int) = (1, 1, 1, 1, 1),
      padding: Padding = .valid,
      dilations: (Int, Int, Int, Int, Int) = (1, 1, 1, 1, 1)
    ) -> Tensor<Scalar>

    مولفه های

    input

    ورودی.

    filter

    فیلتر کانولوشن

    strides

    مراحل فیلتر کشویی برای هر بعد ورودی.

    padding

    بالشتک برای عملیات.

    dilations

    ضریب اتساع برای هر بعد ورودی.

  • یک کانولوشن عمیق دو بعدی با ورودی ، فیلتر ، گام ها و پد مشخص شده برمی گرداند.

    پیش شرط

    input باید رتبه 4 است.

    پیش شرط

    filter باید رتبه 4 است.

    اعلام

    @differentiable(wrt: (input, filter)
    public func depthwiseConv2D<Scalar: TensorFlowFloatingPoint>(
      _ input: Tensor<Scalar>,
      filter: Tensor<Scalar>,
      strides: (Int, Int, Int, Int),
      padding: Padding
    ) -> Tensor<Scalar>

    مولفه های

    input

    ورودی.

    filter

    فیلتر پیچش عمیق

    strides

    مراحل فیلتر کشویی برای هر بعد ورودی.

    padding

    بالشتک برای عملیات.

  • یک ترکیب دو بعدی حداکثر ، با اندازه فیلترها ، گام ها و بالشتک مشخص شده را برمی گرداند.

    اعلام

    @differentiable(wrt: input)
    public func maxPool2D<Scalar: TensorFlowFloatingPoint>(
      _ input: Tensor<Scalar>,
      filterSize: (Int, Int, Int, Int),
      strides: (Int, Int, Int, Int),
      padding: Padding
    ) -> Tensor<Scalar>

    مولفه های

    input

    ورودی.

    filterSize

    ابعاد هسته جمع آوری.

    strides

    مراحل فیلتر کشویی برای هر بعد ورودی.

    padding

    بالشتک برای عملیات.

  • یک ترکیب سه بعدی حداکثر ، با اندازه فیلترها ، گام ها و بالشتک مشخص شده را برمی گرداند.

    اعلام

    @differentiable(wrt: input)
    public func maxPool3D<Scalar: TensorFlowFloatingPoint>(
      _ input: Tensor<Scalar>,
      filterSize: (Int, Int, Int, Int, Int),
      strides: (Int, Int, Int, Int, Int),
      padding: Padding
    ) -> Tensor<Scalar>

    مولفه های

    input

    ورودی.

    filterSize

    ابعاد هسته جمع آوری.

    strides

    مراحل فیلتر کشویی برای هر بعد ورودی.

    padding

    بالشتک برای عملیات.

  • یک جمع بندی متوسط ​​2 بعدی را با اندازه فیلترها ، گام ها و بالشتک مشخص شده برمی گرداند.

    اعلام

    @differentiable(wrt: input)
    public func avgPool2D<Scalar: TensorFlowFloatingPoint>(
      _ input: Tensor<Scalar>,
      filterSize: (Int, Int, Int, Int),
      strides: (Int, Int, Int, Int),
      padding: Padding
    ) -> Tensor<Scalar>

    مولفه های

    input

    ورودی.

    filterSize

    ابعاد هسته جمع آوری.

    strides

    مراحل فیلتر کشویی برای هر بعد ورودی.

    padding

    بالشتک برای عملیات.

  • یک جمع بندی متوسط ​​3 بعدی را با اندازه فیلترها ، گام ها و بالشتک مشخص شده برمی گرداند.

    اعلام

    @differentiable(wrt: input)
    public func avgPool3D<Scalar: TensorFlowFloatingPoint>(
      _ input: Tensor<Scalar>,
      filterSize: (Int, Int, Int, Int, Int),
      strides: (Int, Int, Int, Int, Int),
      padding: Padding
    ) -> Tensor<Scalar>

    مولفه های

    input

    ورودی.

    filterSize

    ابعاد هسته جمع آوری.

    strides

    مراحل فیلتر کشویی برای هر بعد ورودی.

    padding

    بالشتک برای عملیات.

  • حداکثر تجمع کسری دو بعدی را با نسبتهای تجمع مشخص شده برمی گرداند.

    توجه: fractionalMaxPool کند یک پیاده سازی XLA ندارد، و در نتیجه ممکن است پیامدهای عملکرد داشته باشد.

    اعلام

    @differentiable(wrt: input)
    public func fractionalMaxPool2D<Scalar: TensorFlowFloatingPoint>(
      _ input: Tensor<Scalar>,
      poolingRatio: (Double, Double, Double, Double),
      pseudoRandom: Bool = false,
      overlapping: Bool = false,
      deterministic: Bool = false,
      seed: Int64 = 0,
      seed2: Int64 = 0
    ) -> Tensor<Scalar>

    مولفه های

    input

    یک تنسور 4-D با شکل [batch, height, width, channels] .

    poolingRatio

    لیستی از Doubles . نسبت ادغام برای هر بعد از input ، در حال حاضر تنها پشتیبانی از بعد سطر و ستون و باید> = 1.0 باشد.

    pseudoRandom

    اختیاری Bool . به طور پیش فرض به false . هنگامی که به مجموعه ای true ، توالی ادغام در یک مد شبه تصادفی، در غیر این صورت، در مد تصادفی.

    overlapping

    اختیاری Bool . به طور پیش فرض به false . هنگامی که مجموعه ای به true ، به این معنی که ادغام، ارزش در مرز سلول ادغام مجاور توسط هر دو سلول استفاده می شود.

    deterministic

    اختیاری Bool . هنگامی که مجموعه ای به true ، یک منطقه ادغام ثابت خواهد شد که تکرار بیش از یک گره fractionalMaxPool2D در نمودار محاسبات استفاده می شود.

    seed

    اختیاری Int64 . به طور پیش فرض به 0 . اگر غیر صفر باشد ، مولد عدد تصادفی توسط دانه داده شده قرار می گیرد.

    seed2

    اختیاری Int64 . به طور پیش فرض به 0 . دانه دوم برای جلوگیری از برخورد بذر.

  • یک کپی از گرداند input که در آن ارزش ها را از ابعاد عمق در بلوک های فضایی به ارتفاع و ابعاد عرض نقل مکان کرد.

    به عنوان مثال، با توجه به ورودی از شکل [1, 2, 2, 1] ، data_format = "NHWC" و block_size = 2:

    x = [[[[1], [2]],
          [[3], [4]]]]
    

    این خروجی عملیات یک تانسور شکل [1, 1, 1, 4] :

    [[[[1, 2, 3, 4]]]]
    

    در اینجا، ورودی یک دسته ای از 1 و هر عنصر دسته ای است به شکل [2, 2, 1] ، خروجی مربوطه خواهد یک عنصر (به عنوان مثال عرض و ارتفاع هر دو 1) و عمق 4 کانال (1 * اندازه_بلوک * اندازه_بلوک). شکل عنصر خروجی است [1, 1, 4] .

    برای یک تانسور ورودی با عمق بزرگتر، اینجا از شکل [1, 2, 2, 3] ، به عنوان مثال

    x = [[[[1, 2, 3], [4, 5, 6]],
          [[7, 8, 9], [10, 11, 12]]]]
    

    این عملیات، برای block_size 2، خواهد تانسور زیر شکل بازگشت [1, 1, 1, 12]

    [[[[1, 2, 3, 4, 5, 6, 7, 8, 9, 10, 11, 12]]]]
    

    به طور مشابه، برای از ورودی های زیر شکل [1 4 4 1] ، و اندازه بلوک 2:

    x = [[[[1],   [2],  [5],  [6]],
          [[3],   [4],  [7],  [8]],
          [[9],  [10], [13],  [14]],
          [[11], [12], [15],  [16]]]]
    

    اپراتور تانسور زیر شکل بازگشت [1 2 2 4] :

    x = [[[[1, 2, 3, 4],
           [5, 6, 7, 8]],
          [[9, 10, 11, 12],
           [13, 14, 15, 16]]]]
    

    پیش شرط

    input.rank == 4 && b >= 2 .

    پیش شرط

    تعداد از ویژگی های باید توسط بخش پذیر باشد مربع از b .

    اعلام

    @differentiable(wrt: input)
    public func depthToSpace<Scalar>(_ input: Tensor<Scalar>, blockSize b: Int) -> Tensor<Scalar> where Scalar : TensorFlowScalar
  • یک کپی از گرداند input که در آن ارزش ها از ارتفاع و ابعاد عرض به عمق ابعاد نقل مکان کرد.

    به عنوان مثال، با توجه به ورودی از شکل [1, 2, 2, 1] ، data_format = "NHWC" و block_size = 2:

    x = [[[[1], [2]],
          [[3], [4]]]]
    

    این خروجی عملیات یک تانسور شکل [1, 1, 1, 4] :

    [[[[1, 2, 3, 4]]]]
    

    Here, the input has a batch of 1 and each batch element has shape [2, 2, 1] , the corresponding output will have a single element (ie width and height are both 1) and will have a depth of 4 channels (1 * block_size * block_size). The output element shape is [1, 1, 4] .

    For an input tensor with larger depth, here of shape [1, 2, 2, 3] , eg

    x = [[[[1, 2, 3], [4, 5, 6]],
          [[7, 8, 9], [10, 11, 12]]]]
    

    This operation, for block_size of 2, will return the following tensor of shape [1, 1, 1, 12]

    [[[[1, 2, 3, 4, 5, 6, 7, 8, 9, 10, 11, 12]]]]
    

    Similarly, for the following input of shape [1 4 4 1] , and a block size of 2:

    x = [[[[1],   [2],  [5],  [6]],
          [[3],   [4],  [7],  [8]],
          [[9],  [10], [13],  [14]],
          [[11], [12], [15],  [16]]]]
    

    the operator will return the following tensor of shape [1 2 2 4] :

    x = [[[[1, 2, 3, 4],
           [5, 6, 7, 8]],
          [[9, 10, 11, 12],
           [13, 14, 15, 16]]]]
    

    Precondition

    input.rank == 4 && b >= 2 .

    Precondition

    The height of the input must be divisible by b .

    Precondition

    The width of the input must be divisible by b .

    اعلام

    @differentiable(wrt: input)
    public func spaceToDepth<Scalar>(_ input: Tensor<Scalar>, blockSize b: Int) -> Tensor<Scalar> where Scalar : TensorFlowScalar
  • Builds a per-weight optimizer for LARS ( https://arxiv.org/pdf/1708.03888.pdf ).

    اعلام

    public func makeLARS(
      learningRate: Float = 0.01,
      momentum: Float = 0.9,
      trustCoefficient: Float = 0.001,
      nesterov: Bool = false,
      epsilon: Float = 0.0,
      weightDecay: Float = 0.0
    ) -> ParameterGroupOptimizer
  • Builds a SGD based per-weight optimizer.

    اعلام

    public func makeSGD(
      learningRate: Float = 0.01,
      momentum: Float = 0,
      weightDecay: Float = 0,
      nesterov: Bool = false
    ) -> ParameterGroupOptimizer
  • Builds a per-weight optimizer for Adam with weight decay.

    Reference: “Adam - A Method for Stochastic Optimization”

    اعلام

    public func makeAdam(
      learningRate: Float = 0.01,
      beta1: Float = 0.9,
      beta2: Float = 0.999,
      weightDecayRate: Float = 0.01,
      epsilon: Float = 1e-6
    ) -> ParameterGroupOptimizer
  • Generates a new random seed for TensorFlow.

    اعلام

    public func randomSeedForTensorFlow(using seed: TensorFlowSeed? = nil) -> TensorFlowSeed
  • Concatenates two values.

    اعلام

    @differentiable
    public func concatenate<T: Mergeable>(
      _ first: T,
      _ second: T
    ) -> T
  • Adds two values and produces their sum.

    اعلام

    @differentiable
    public func sum<T: Mergeable>(
      _ first: T,
      _ second: T
    ) -> T
  • Averages two values.

    اعلام

    @differentiable
    public func average<T: Mergeable>(
      _ first: T,
      _ second: T
    ) -> T
  • Multiplies two values.

    اعلام

    @differentiable
    public func multiply<T: Mergeable>(
      _ first: T,
      _ second: T
    ) -> T
  • Stack two values.

    اعلام

    @differentiable
    public func stack<T: Mergeable>(
      _ first: T,
      _ second: T
    ) -> T
  • اعلام

    public func PrintX10Metrics()
  • Creates a string summary of a list of training and testing stats.

    اعلام

    public func formatStatistics(_ stats: (train: HostStatistics, test: HostStatistics)) -> String
  • اعلام

    public func formatStatistics(train trainStats: HostStatistics, test testStats: HostStatistics)
      -> String
  • Maps a function over n threads.

    اعلام

    public func runOnNThreads<R>(_ nThreads: Int, _ body: @escaping (Int) -> R) -> [R]