Посетите симпозиум «Женщины в машинном обучении» 7 декабря Зарегистрируйтесь сейчас

Функции

Оптимизируйте свои подборки Сохраняйте и классифицируйте контент в соответствии со своими настройками.

Следующие функции доступны во всем мире.

  • Возвращает потерю L1 между прогнозами и ожиданиями.

    Декларация

    @differentiable(wrt: predicted)
    @differentiable(wrt: (predicted, expected)
    public func l1Loss<Scalar: TensorFlowFloatingPoint>(
      predicted: Tensor<Scalar>,
      expected: Tensor<Scalar>
    ) -> Tensor<Scalar>

    Параметры

    predicted

    Прогнозируемые выходы нейронной сети.

    expected

    Ожидаемые значения, то есть цели, которые соответствуют правильному результату.

  • Возвращает потерю L2 между предсказаниями и ожиданиями.

    Декларация

    @differentiable(wrt: predicted)
    @differentiable(wrt: (predicted, expected)
    public func l2Loss<Scalar: TensorFlowFloatingPoint>(
      predicted: Tensor<Scalar>,
      expected: Tensor<Scalar>
    ) -> Tensor<Scalar>

    Параметры

    predicted

    Прогнозируемые выходы нейронной сети.

    expected

    Ожидаемые значения, то есть цели, которые соответствуют правильному результату.

  • Возвращает потерю петли между прогнозами и ожиданиями.

    Декларация

    @differentiable(wrt: predicted)
    @differentiable(wrt: (predicted, expected)
    public func hingeLoss<Scalar: TensorFlowFloatingPoint>(
      predicted: Tensor<Scalar>,
      expected: Tensor<Scalar>
    ) -> Tensor<Scalar>

    Параметры

    predicted

    Прогнозируемые выходы нейронной сети.

    expected

    Ожидаемые значения, то есть цели, которые соответствуют правильному результату.

  • Возвращает квадрат потерь петли между прогнозами и ожиданиями.

    Декларация

    @differentiable(wrt: predicted)
    @differentiable(wrt: (predicted, expected)
    public func squaredHingeLoss<Scalar: TensorFlowFloatingPoint>(
      predicted: Tensor<Scalar>,
      expected: Tensor<Scalar>
    ) -> Tensor<Scalar>

    Параметры

    predicted

    Прогнозируемые выходы нейронной сети.

    expected

    Ожидаемые значения, то есть цели, которые соответствуют правильному результату.

  • Возвращает категориальную потерю петли между прогнозами и ожиданиями.

    Декларация

    @differentiable(wrt: predicted)
    @differentiable(wrt: (predicted, expected)
    public func categoricalHingeLoss<Scalar: TensorFlowFloatingPoint>(
      predicted: Tensor<Scalar>,
      expected: Tensor<Scalar>
    ) -> Tensor<Scalar>

    Параметры

    predicted

    Прогнозируемые выходы нейронной сети.

    expected

    Ожидаемые значения, то есть цели, которые соответствуют правильному результату.

  • Возвращает логарифм гиперболического косинуса ошибки между предсказаниями и ожиданиями.

    Декларация

    @differentiable(wrt: predicted)
    @differentiable(wrt: (predicted, expected)
    public func logCoshLoss<Scalar: TensorFlowFloatingPoint>(
      predicted: Tensor<Scalar>,
      expected: Tensor<Scalar>
    ) -> Tensor<Scalar>

    Параметры

    predicted

    Прогнозируемые выходы нейронной сети.

    expected

    Ожидаемые значения, то есть цели, которые соответствуют правильному результату.

  • Возвращает пуассоновские потери между предсказаниями и ожиданиями.

    Декларация

    @differentiable(wrt: predicted)
    @differentiable(wrt: (predicted, expected)
    public func poissonLoss<Scalar: TensorFlowFloatingPoint>(
      predicted: Tensor<Scalar>,
      expected: Tensor<Scalar>
    ) -> Tensor<Scalar>

    Параметры

    predicted

    Прогнозируемые выходы нейронной сети.

    expected

    Ожидаемые значения, то есть цели, которые соответствуют правильному результату.

  • Возвращает расхождение Кульбака-Лейблера (расхождение KL) между ожиданиями и прогнозами. С учетом двух распределений p и q , KL дивергенции вычисляет p * log(p / q) .

    Декларация

    @differentiable(wrt: predicted)
    @differentiable(wrt: (predicted, expected)
    public func kullbackLeiblerDivergence<Scalar: TensorFlowFloatingPoint>(
      predicted: Tensor<Scalar>,
      expected: Tensor<Scalar>
    ) -> Tensor<Scalar>

    Параметры

    predicted

    Прогнозируемые выходы нейронной сети.

    expected

    Ожидаемые значения, то есть цели, которые соответствуют правильному результату.

  • Возвращает перекрестную энтропию softmax (категориальную перекрестную энтропию) между логитами и метками.

    Декларация

    @differentiable(wrt: logits)
    public func softmaxCrossEntropy<Scalar: TensorFlowFloatingPoint>(
      logits: Tensor<Scalar>,
      probabilities: Tensor<Scalar>
    ) -> Tensor<Scalar>

    Параметры

    logits

    Одновременно закодированные выходы из нейронной сети.

    labels

    Индексы (с нулевым индексом) правильных выходов.

  • Возвращает сигмовидную перекрестную энтропию (двоичную перекрестную энтропию) между логитами и метками.

    Декларация

    @differentiable(wrt: logits)
    @differentiable(wrt: (logits, labels)
    public func sigmoidCrossEntropy<Scalar: TensorFlowFloatingPoint>(
      logits: Tensor<Scalar>,
      labels: Tensor<Scalar>
    ) -> Tensor<Scalar>

    Параметры

    logits

    Немасштабированный вывод нейронной сети.

    labels

    Целочисленные значения, соответствующие правильному выводу.

  • Возвращает тензор той же формы и скаляров, что и указанный тензор.

    Декларация

    @differentiable
    public func identity<Scalar>(_ x: Tensor<Scalar>) -> Tensor<Scalar> where Scalar : TensorFlowScalar
  • Вызывает данное закрытие в контексте, который имеет все, что идентично текущему контексту, за исключением данной фазы обучения.

    Декларация

    public func withContext<R>(_ context: Context, _ body: () throws -> R) rethrows -> R

    Параметры

    context

    Контекст, который будет установлен перед вызовом закрытия и восстановлен после возврата из закрытия.

    body

    Нулевое закрытие. Если замыкание имеет возвращаемое значение, это значение также используется в качестве возвращаемого значения withContext(_:_:) функции.

    Возвращаемое значение

    Возвращаемое значение, если таковые имеются, body закрытия.

  • Вызывает данное закрытие в контексте, который имеет все, что идентично текущему контексту, за исключением данной фазы обучения.

    Декларация

    public func withLearningPhase<R>(
      _ learningPhase: LearningPhase,
      _ body: () throws -> R
    ) rethrows -> R

    Параметры

    learningPhase

    Фаза обучения, которая будет установлена ​​перед вызовом закрытия и восстановлена ​​после возврата из закрытия.

    body

    Нулевое закрытие. Если замыкание имеет возвращаемое значение, это значение также используется в качестве возвращаемого значения withLearningPhase(_:_:) функции.

    Возвращаемое значение

    Возвращаемое значение, если таковые имеются, body закрытия.

  • Вызывает данное закрытие в контексте, который имеет все, что идентично текущему контексту, за исключением заданного случайного начального числа.

    Декларация

    public func withRandomSeedForTensorFlow<R>(
      _ randomSeed: TensorFlowSeed,
      _ body: () throws -> R
    ) rethrows -> R

    Параметры

    randomSeed

    Случайное семя, которое будет установлено перед вызовом закрытия и восстановлено после возврата закрытия.

    body

    Нулевое закрытие. Если замыкание имеет возвращаемое значение, это значение также используется в качестве возвращаемого значения withRandomSeedForTensorFlow(_:_:) функции.

    Возвращаемое значение

    Возвращаемое значение, если таковые имеются, body закрытия.

  • Вызывает данное закрытие в контексте, который имеет все, что идентично текущему контексту, за исключением заданного генератора случайных чисел.

    Декларация

    public func withRandomNumberGeneratorForTensorFlow<G: RandomNumberGenerator, R>(
      _ randomNumberGenerator: inout G,
      _ body: () throws -> R
    ) rethrows -> R

    Параметры

    randomNumberGenerator

    Генератор случайных чисел, который будет установлен перед вызовом закрытия и восстановлен после возврата из закрытия.

    body

    Нулевое закрытие. Если замыкание имеет возвращаемое значение, это значение также используется в качестве возвращаемого значения withRandomNumberGeneratorForTensorFlow(_:_:) функции.

    Возвращаемое значение

    Возвращаемое значение, если таковые имеются, body закрытия.

  • Декларация

    public func zip<T: TensorGroup, U: TensorGroup>(
      _ dataset1: Dataset<T>, _ dataset2: Dataset<U>
    ) -> Dataset<Zip2TensorGroup<T, U>>
  • LazyTensorBarrier гарантирует, что все живые тензоры (на устройстве, если они есть) запланированы и запущены. Если для параметра wait установлено значение true, этот вызов блокируется до завершения вычисления.

    Декларация

    public func LazyTensorBarrier(on device: Device? = nil, devices: [Device] = [], wait: Bool = false)
  • Декларация

    public func valueWithGradient<T, R>(
      at x: T,
      in f: @differentiable (T) -> Tensor<R>
    ) -> (value: Tensor<R>, gradient: T.TangentVector)
    where T: Differentiable, R: TensorFlowFloatingPoint
  • Декларация

    public func valueWithGradient<T, U, R>(
      at x: T,
      _ y: U,
      in f: @differentiable (T, U) -> Tensor<R>
    ) -> (value: Tensor<R>, gradient: (T.TangentVector, U.TangentVector))
    where T: Differentiable, U: Differentiable, R: TensorFlowFloatingPoint
  • Декларация

    public func valueWithGradient<T, U, V, R>(
      at x: T,
      _ y: U,
      _ z: V,
      in f: @differentiable (T, U, V) -> Tensor<R>
    ) -> (value: Tensor<R>, gradient: (T.TangentVector, U.TangentVector, V.TangentVector))
    where T: Differentiable, U: Differentiable, V: Differentiable, R: TensorFlowFloatingPoint
  • Декларация

    public func valueWithGradient<T, R>(
      of f: @escaping @differentiable (T) -> Tensor<R>
    ) -> (T) -> (value: Tensor<R>, gradient: T.TangentVector)
    where T: Differentiable, R: TensorFlowFloatingPoint
  • Декларация

    public func valueWithGradient<T, U, R>(
      of f: @escaping @differentiable (T, U) -> Tensor<R>
    ) -> (T, U) -> (value: Tensor<R>, gradient: (T.TangentVector, U.TangentVector))
    where T: Differentiable, U: Differentiable, R: TensorFlowFloatingPoint
  • Декларация

    public func valueWithGradient<T, U, V, R>(
      of f: @escaping @differentiable (T, U, V) -> Tensor<R>
    ) -> (T, U, V) -> (
      value: Tensor<R>,
      gradient: (T.TangentVector, U.TangentVector, V.TangentVector)
    )
    where T: Differentiable, U: Differentiable, V: Differentiable, R: TensorFlowFloatingPoint
  • Декларация

    public func gradient<T, R>(
      at x: T,
      in f: @differentiable (T) -> Tensor<R>
    ) -> T.TangentVector where T: Differentiable, R: TensorFlowFloatingPoint
  • Декларация

    public func gradient<T, U, R>(
      at x: T,
      _ y: U,
      in f: @differentiable (T, U) -> Tensor<R>
    ) -> (T.TangentVector, U.TangentVector)
    where T: Differentiable, U: Differentiable, R: TensorFlowFloatingPoint
  • Декларация

    public func gradient<T, U, V, R>(
      at x: T,
      _ y: U,
      _ z: V,
      in f: @differentiable (T, U, V) -> Tensor<R>
    ) -> (T.TangentVector, U.TangentVector, V.TangentVector)
    where T: Differentiable, U: Differentiable, V: Differentiable, R: TensorFlowFloatingPoint
  • Декларация

    public func gradient<T, R>(
      of f: @escaping @differentiable (T) -> Tensor<R>
    ) -> (T) -> T.TangentVector where T: Differentiable, R: TensorFlowFloatingPoint
  • Декларация

    public func gradient<T, U, R>(
      of f: @escaping @differentiable (T, U) -> Tensor<R>
    ) -> (T, U) -> (T.TangentVector, U.TangentVector)
    where T: Differentiable, U: Differentiable, R: TensorFlowFloatingPoint
  • Декларация

    public func gradient<T, U, V, R>(
      of f: @escaping @differentiable (T, U, V) -> Tensor<R>
    ) -> (T, U, V) -> (T.TangentVector, U.TangentVector, V.TangentVector)
    where T: Differentiable, U: Differentiable, V: Differentiable, R: TensorFlowFloatingPoint
  • Заставьте функцию пересчитывать при откате, известном как «контрольная точка» в традиционном автоматическом дифференцировании.

    Декларация

    public func withRecomputationInPullbacks<T, U>(
      _ body: @escaping @differentiable (T) -> U
    ) -> @differentiable (T) -> U where T : Differentiable, U : Differentiable
  • Создайте дифференцируемую функцию из векторно-якобиевой функции произведений.

    Декларация

    public func differentiableFunction<T : Differentiable, R : Differentiable>(
      from vjp: @escaping (T)
               -> (value: R, pullback: (R.TangentVector) -> T.TangentVector)
    ) -> @differentiable (T) -> R
  • Создайте дифференцируемую функцию из векторно-якобиевой функции произведений.

    Декларация

    public func differentiableFunction<T, U, R>(
      from vjp: @escaping (T, U)
               -> (value: R, pullback: (R.TangentVector)
                 -> (T.TangentVector, U.TangentVector))
    ) -> @differentiable (T, U) -> R
  • Возвращает x как функция идентификации. При использовании в условиях , когда x является дифференцируются относительно, эта функция не будет производить любую производную по x .

    Декларация

    @_semantics("autodiff.nonvarying")
    public func withoutDerivative<T>(at x: T) -> T
  • Применяется данным закрывающее body к x . При использовании в условиях , когда x является дифференцируются относительно, эта функция не будет производить любую производную по x .

    Декларация

    @_semantics("autodiff.nonvarying")
    public func withoutDerivative<T, R>(at x: T, in body: (T) -> R) -> R
  • Выполняет закрытие, заставляя операции TensorFlow выполняться на определенном типе устройства.

    Декларация

    public func withDevice<R>(
      _ kind: DeviceKind,
      _ index: UInt = 0,
      perform body: () throws -> R
    ) rethrows -> R

    Параметры

    kind

    Своего рода устройство для запуска операций TensorFlow.

    index

    Устройство для запуска операций.

    body

    Замыкание, операции TensorFlow которого должны выполняться на устройстве указанного типа.

  • Выполняет закрытие, заставляя операции TensorFlow выполняться на устройстве с определенным именем.

    Некоторые примеры названий устройств:

    • «/ Device: CPU: 0»: ЦП вашего компьютера.
    • «/ GPU: 0»: сокращенное обозначение первого графического процессора вашего компьютера, видимого для TensorFlow.
    • «/ Job: localhost / replica: 0 / task: 0 / device: GPU: 1»: полное имя второго графического процессора вашей машины, видимое для TensorFlow.

    Декларация

    public func withDevice<R>(named name: String, perform body: () throws -> R) rethrows -> R

    Параметры

    name

    Имя устройства.

    body

    Замыкание, операции TensorFlow которого должны выполняться на устройстве указанного типа.

  • Выполняет закрытие, позволяя TensorFlow размещать операции TensorFlow на любом устройстве. Это должно восстановить поведение размещения по умолчанию.

    Декларация

    public func withDefaultDevice<R>(perform body: () throws -> R) rethrows -> R

    Параметры

    body

    Замыкание, операции TensorFlow которого должны выполняться на устройстве указанного типа.

  • Измените размер изображений до размера, используя указанный метод.

    Предварительное условие

    Изображения должны иметь ранг 3 или 4 .

    Предварительное условие

    Размер должен быть положительным.

    Декларация

    @differentiable(wrt: images)
    public func resize(
      images: Tensor<Float>,
      size: (newHeight: Int, newWidth: Int),
      method: ResizeMethod = .bilinear,
      antialias: Bool = false
    ) -> Tensor<Float>

    Параметры

    images

    4-D Tensor форм [batch, height, width, channels] или 3-D Tensor формы [height, width, channels] .

    size

    Новый размер изображений.

    method

    Метод изменения размера. Значение по умолчанию .bilinear .

    antialias

    Ифф true , использовать антиалиасинг фильтр при понижающей дискретизации изображения.

  • Измените размер изображений до размера, используя интерполяцию области.

    Предварительное условие

    Изображения должны иметь ранг 3 или 4 .

    Предварительное условие

    Размер должен быть положительным.

    Декларация

    public func resizeArea<Scalar: TensorFlowNumeric>(
      images: Tensor<Scalar>,
      size: (newHeight: Int, newWidth: Int),
      alignCorners: Bool = false
    ) -> Tensor<Float>

    Параметры

    images

    4-D Tensor форм [batch, height, width, channels] или 3-D Tensor формы [height, width, channels] .

    size

    Новый размер изображений.

  • Возвращает двумерное расширение с указанными входными данными, фильтром, шагами и заполнением.

    Предварительное условие

    input должен иметь ранг 4 .

    Предварительное условие

    filter должен иметь ранг 3 .

    Декларация

    @differentiable(wrt: (input, filter)
    public func dilation2D<Scalar: TensorFlowFloatingPoint>(
      _ input: Tensor<Scalar>,
      filter: Tensor<Scalar>,
      strides: (Int, Int, Int, Int) = (1, 1, 1, 1),
      rates: (Int, Int, Int, Int) = (1, 1, 1, 1),
      padding: Padding = .valid
    ) -> Tensor<Scalar>

    Параметры

    input

    Вход.

    filter

    Фильтр расширения.

    strides

    Шаги скользящего фильтра для каждого измерения ввода.

    padding

    Прокладка для операции

    rates

    Скорости расширения для каждого измерения входных данных.

  • Возвращает двумерную эрозию с указанными входными данными, фильтром, шагами и заполнением.

    Предварительное условие

    input должен иметь ранг 4 .

    Предварительное условие

    filter должен иметь ранг 3.

    Декларация

    @differentiable(wrt: (input, filter)
    public func erosion2D<Scalar: TensorFlowFloatingPoint>(
      _ input: Tensor<Scalar>,
      filter: Tensor<Scalar>,
      strides: (Int, Int, Int, Int) = (1, 1, 1, 1),
      rates: (Int, Int, Int, Int) = (1, 1, 1, 1),
      padding: Padding = .valid
    ) -> Tensor<Scalar>

    Параметры

    input

    Вход.

    filter

    Эрозионный фильтр.

    strides

    Шаги скользящего фильтра для каждого измерения ввода.

    padding

    Прокладка для операции

    rates

    Скорости расширения для каждого измерения входных данных.

  • Возвращает функцию, которая создает тензор, инициализируя все его значения нулями.

    Декларация

    public func zeros<Scalar>() -> ParameterInitializer<Scalar> where Scalar : TensorFlowFloatingPoint
  • Возвращает функцию, которая создает тензор, инициализируя все его значения предоставленным значением.

    Декларация

    public func constantInitializer<Scalar: TensorFlowFloatingPoint>(
      value: Scalar
    ) -> ParameterInitializer<Scalar>
  • Возвращает функцию, которая создает тензор, инициализируя его заданным значением. Следует отметить , что вещание предоставленного значения не поддерживается.

    Декларация

    public func constantInitializer<Scalar: TensorFlowFloatingPoint>(
      value: Tensor<Scalar>
    ) -> ParameterInitializer<Scalar>
  • Возвращает функция , которая создает тензор, выполняя Glorot (Xavier) равномерную инициализацию для указанной формы, случайная выборкой скалярных значений из равномерного распределения между -limit и limit , генерируется по умолчанию генератора случайных чисел в, где предел составляет sqrt(6 / (fanIn + fanOut)) , и fanIn / fanOut представляют число входных и выходные Характеристики умножается на рецепторном поле, если они присутствуют.

    Декларация

    public func glorotUniform<Scalar: TensorFlowFloatingPoint>(
      seed: TensorFlowSeed = Context.local.randomSeed
    ) -> ParameterInitializer<Scalar>
  • Возвращает функция , которая создает тензор, выполняя Glorot (Xavier) нормальную инициализацию для заданной формы, случайная выборкой скалярных значений из усеченного нормального распределения по центру 0 со стандартным отклонением sqrt(2 / (fanIn + fanOut)) , где fanIn / fanOut представляют количество входных и выходных функций, умноженное на размер принимающего поля, если таковые имеются.

    Декларация

    public func glorotNormal<Scalar: TensorFlowFloatingPoint>(
      seed: TensorFlowSeed = Context.local.randomSeed
    ) -> ParameterInitializer<Scalar>
  • Возвращает функция , которая создает тензор, выполняя He (Kaiming) равномерную инициализацию для заданной формы, случайная выборкой скалярных значений из равномерного распределения между -limit и limit , генерируется по умолчанию генератора случайных чисел в, где предел составляет sqrt(6 / fanIn) , и fanIn представляет число входных функций , умноженных на воспринимающего поля, если он присутствует.

    Декларация

    public func heUniform<Scalar: TensorFlowFloatingPoint>(
      seed: TensorFlowSeed = Context.local.randomSeed
    ) -> ParameterInitializer<Scalar>
  • Возвращает функция , которая создает тензор, выполняя He (Kaiming) нормальную инициализацию для заданной формы, случайная выборка скалярных значений из усеченного нормального распределения по центру 0 со стандартным отклонением sqrt(2 / fanIn) , где fanIn представляет число входных функций умножается на размер воспринимающего поля, если таковой имеется.

    Декларация

    public func heNormal<Scalar: TensorFlowFloatingPoint>(
      seed: TensorFlowSeed = Context.local.randomSeed
    ) -> ParameterInitializer<Scalar>
  • Возвращает функция , которая создает тензор путем выполнения LeCun инициализации для равномерной заданной формы, случайная выборка скалярных значений из равномерного распределения между -limit и limit , генерируется по умолчанию генератора случайных чисел в, где предел составляет sqrt(3 / fanIn) , и fanIn представляет собой число входных функций , умноженных на воспринимающего поля, если он присутствует.

    Декларация

    public func leCunUniform<Scalar: TensorFlowFloatingPoint>(
      seed: TensorFlowSeed = Context.local.randomSeed
    ) -> ParameterInitializer<Scalar>
  • Возвращает функция , которая создает тензор, выполняя LeCun нормальной инициализации для заданной формы, случайная выборкой скалярных значений из усеченного нормального распределения по центру 0 со стандартным отклонением sqrt(1 / fanIn) , где fanIn представляет число входной Характеристики умножается на размер рецептивного поля, если таковой имеется.

    Декларация

    public func leCunNormal<Scalar: TensorFlowFloatingPoint>(
      seed: TensorFlowSeed = Context.local.randomSeed
    ) -> ParameterInitializer<Scalar>
  • Возвращает функцию, которая создает тензор путем случайной инициализации всех его значений из усеченного нормального распределения. Сформированные значения следуют нормальному распределению со средним mean и стандартного отклонения standardDeviation , за исключением того значений, величина которых более чем на два стандартных отклонения от среднего значения сбрасываются и понижается.

    Декларация

    public func truncatedNormalInitializer<Scalar: TensorFlowFloatingPoint>(
      mean: Tensor<Scalar> = Tensor<Scalar>(0),
      standardDeviation: Tensor<Scalar> = Tensor<Scalar>(1),
      seed: TensorFlowSeed = Context.local.randomSeed
    ) -> ParameterInitializer<Scalar>

    Параметры

    mean

    Среднее значение нормального распределения.

    standardDeviation

    Стандартное отклонение нормального распределения.

    Возвращаемое значение

    Усеченная функция инициализатора нормального параметра.

  • Декларация

    public func == (lhs: TFETensorHandle, rhs: TFETensorHandle) -> Bool
  • Возвращает единичную матрицу или пакет матриц.

    Декларация

    public func eye<Scalar: Numeric>(
      rowCount: Int,
      columnCount: Int? = nil,
      batchShape: [Int] = [],
      on device: Device = .default
    ) -> Tensor<Scalar>

    Параметры

    rowCount

    Количество строк в каждой матрице пакета.

    columnCount

    Количество столбцов в каждой матрице пакета.

    batchShape

    Старшие размерности пакета возвращенного тензора.

  • Вычисляет след необязательно пакетированной матрицы. След - это сумма по главной диагонали каждой самой внутренней матрицы.

    Вход тензор с формой [..., M, N] . Выход тензор с формой [...] .

    Предварительное условие

    matrix должна быть тензором с формой [..., M, N] .

    Декларация

    @differentiable(wrt: matrix)
    public func trace<T>(_ matrix: Tensor<T>) -> Tensor<T> where T : Numeric, T : TensorFlowScalar

    Параметры

    matrix

    Тензор формы [..., M, N] .

  • Возвращает разложение Холецкого одной или нескольких квадратных матриц.

    Вход тензор формы [..., M, M] , внутренний-2 размеров большинства образуют квадратные матрицы.

    Вход должен быть симметричным и положительно определенным. Для этой операции будет использоваться только нижняя треугольная часть ввода. Верхнетреугольная часть считываться не будет.

    Выход представляет собой тензор той же форму , как на входе , содержащее разложение Холецкого для всех входных подматриц [..., :, :] .

    Декларация

    @differentiable
    public func cholesky<T>(_ x: Tensor<T>) -> Tensor<T> where T : TensorFlowFloatingPoint

    Параметры

    input

    Тензор формы [..., M, M] .

  • Возвращает решения x к системе линейных уравнений , представленное Ax = b .

    Предварительное условие

    matrix должна быть тензором с формой [..., M, M] .

    Предварительное условие

    rhs должен быть тензором с формой [..., M, K] .

    Декларация

    @differentiable
    public func triangularSolve<T: TensorFlowFloatingPoint>(
      matrix: Tensor<T>,
      rhs: Tensor<T>,
      lower: Bool = true,
      adjoint: Bool = false
    ) -> Tensor<T>

    Параметры

    matrix

    Вход треугольной матрицы коэффициентов, представляющий A в Ax = b .

    rhs

    Боковые значения правой руки, представляя b в Ax = b .

    lower

    Если matrix является нижним треугольной ( true ) или верхней треугольной ( false ). Значение по умолчанию true .

    adjoint

    Если true , решить с помощью сопряженных matrix вместо matrix . Значение по умолчанию является false .

    Возвращаемое значение

    Решение x к системе линейных уравнений , представленное Ax = b . x имеет такую же форму , как и b .

  • Вычисляет потерю L1 между expected и predicted . loss = reduction(abs(expected - predicted))

    Декларация

    @differentiable(wrt: predicted)
    @differentiable(wrt: (predicted, expected)
    public func l1Loss<Scalar: TensorFlowFloatingPoint>(
      predicted: Tensor<Scalar>,
      expected: Tensor<Scalar>,
      reduction: @differentiable (Tensor<Scalar>) -> Tensor<Scalar> = _sum
    ) -> Tensor<Scalar>

    Параметры

    predicted

    Прогнозируемые выходы нейронной сети.

    expected

    Ожидаемые значения, то есть цели, которые соответствуют правильному результату.

    reduction

    Сокращение, применяемое к вычисленным значениям поэлементных потерь.

  • Вычисляет потерю L2 между expected и predicted . loss = reduction(square(expected - predicted))

    Декларация

    @differentiable(wrt: predicted)
    @differentiable(wrt: (predicted, expected)
    public func l2Loss<Scalar: TensorFlowFloatingPoint>(
      predicted: Tensor<Scalar>,
      expected: Tensor<Scalar>,
      reduction: @differentiable (Tensor<Scalar>) -> Tensor<Scalar> = _sum
    ) -> Tensor<Scalar>

    Параметры

    predicted

    Прогнозируемые выходы нейронной сети.

    expected

    Ожидаемые значения, то есть цели, которые соответствуют правильному результату.

    reduction

    Сокращение, применяемое к вычисленным значениям поэлементных потерь.

  • Вычисляет среднее значение абсолютной разницы между метками и прогнозами. loss = mean(abs(expected - predicted))

    Декларация

    @differentiable(wrt: predicted)
    @differentiable(wrt: (predicted, expected)
    public func meanAbsoluteError<Scalar: TensorFlowFloatingPoint>(
      predicted: Tensor<Scalar>,
      expected: Tensor<Scalar>
    ) -> Tensor<Scalar>

    Параметры

    predicted

    Прогнозируемые выходы нейронной сети.

    expected

    Ожидаемые значения, то есть цели, которые соответствуют правильному результату.

  • Вычисляет среднее квадратов ошибок между метками и прогнозами. loss = mean(square(expected - predicted))

    Декларация

    @differentiable(wrt: predicted)
    @differentiable(wrt: (predicted, expected)
    public func meanSquaredError<Scalar: TensorFlowFloatingPoint>(
      predicted: Tensor<Scalar>,
      expected: Tensor<Scalar>
    ) -> Tensor<Scalar>

    Параметры

    predicted

    Прогнозируемые выходы нейронной сети.

    expected

    Ожидаемые значения, то есть цели, которые соответствуют правильному результату.

  • Вычисляет среднеквадратическая ошибка логарифмической между predicted и expected loss = square(log(expected) - log(predicted))

    Примечание

    Отрицательные элементы тензора будут зажаты в 0 , чтобы избежать неопределенное поведение логарифмической, поскольку log(_:) не определена для отрицательных чисел.

    Декларация

    @differentiable(wrt: predicted)
    @differentiable(wrt: (predicted, expected)
    public func meanSquaredLogarithmicError<Scalar: TensorFlowFloatingPoint>(
      predicted: Tensor<Scalar>,
      expected: Tensor<Scalar>
    ) -> Tensor<Scalar>

    Параметры

    predicted

    Прогнозируемые выходы нейронной сети.

    expected

    Ожидаемые значения, то есть цели, которые соответствуют правильному результату.

  • Вычисляет среднюю абсолютные процентную ошибку между predicted и expected . loss = 100 * mean(abs((expected - predicted) / abs(expected)))

    Декларация

    @differentiable(wrt: predicted)
    @differentiable(wrt: (predicted, expected)
    public func meanAbsolutePercentageError<Scalar: TensorFlowFloatingPoint>(
      predicted: Tensor<Scalar>,
      expected: Tensor<Scalar>
    ) -> Tensor<Scalar>

    Параметры

    predicted

    Прогнозируемые выходы нейронной сети.

    expected

    Ожидаемые значения, то есть цели, которые соответствуют правильному результату.

  • Вычисляет потери шарнира между predicted и expected . loss = reduction(max(0, 1 - predicted * expected)) expected , значение , как ожидается, будет -1 или 1.

    Декларация

    @differentiable(wrt: predicted)
    @differentiable(wrt: (predicted, expected)
    public func hingeLoss<Scalar: TensorFlowFloatingPoint>(
      predicted: Tensor<Scalar>,
      expected: Tensor<Scalar>,
      reduction: @differentiable (Tensor<Scalar>) -> Tensor<Scalar> = _mean
    ) -> Tensor<Scalar>

    Параметры

    predicted

    Прогнозируемые выходы нейронной сети.

    expected

    Ожидаемые значения, то есть цели, которые соответствуют правильному результату.

    reduction

    Сокращение, применяемое к вычисленным значениям поэлементных потерь.

  • Вычисляет квадрат потери шарнира между predicted и expected . loss = reduction(square(max(0, 1 - predicted * expected))) expected значения , как ожидается, будет -1 или 1.

    Декларация

    @differentiable(wrt: predicted)
    @differentiable(wrt: (predicted, expected)
    public func squaredHingeLoss<Scalar: TensorFlowFloatingPoint>(
      predicted: Tensor<Scalar>,
      expected: Tensor<Scalar>,
      reduction: @differentiable (Tensor<Scalar>) -> Tensor<Scalar> = _mean
    ) -> Tensor<Scalar>

    Параметры

    predicted

    Прогнозируемые выходы нейронной сети.

    expected

    Ожидаемые значения, то есть цели, которые соответствуют правильному результату.

    reduction

    Сокращение, применяемое к вычисленным значениям поэлементных потерь.

  • Вычисляет категорическую потерю шарнира между predicted и expected . loss = maximum(negative - positive + 1, 0) , где negative = max((1 - expected) * predicted) и positive = sum(predicted * expected)

    Декларация

    @differentiable(wrt: predicted)
    @differentiable(wrt: (predicted, expected)
    public func categoricalHingeLoss<Scalar: TensorFlowFloatingPoint>(
      predicted: Tensor<Scalar>,
      expected: Tensor<Scalar>,
      reduction: @differentiable (Tensor<Scalar>) -> Tensor<Scalar> = _mean
    ) -> Tensor<Scalar>

    Параметры

    predicted

    Прогнозируемые выходы нейронной сети.

    expected

    Ожидаемые значения, то есть цели, которые соответствуют правильному результату.

    reduction

    Сокращение, применяемое к вычисленным значениям поэлементных потерь.

  • Вычисляет логарифм гиперболического косинуса ошибки прогноза. logcosh = log((exp(x) + exp(-x))/2) , где х погрешность predicted - expected

    Декларация

    @differentiable(wrt: predicted)
    @differentiable(wrt: (predicted, expected)
    public func logCoshLoss<Scalar: TensorFlowFloatingPoint>(
      predicted: Tensor<Scalar>,
      expected: Tensor<Scalar>,
      reduction: @differentiable (Tensor<Scalar>) -> Tensor<Scalar> = _mean
    ) -> Tensor<Scalar>

    Параметры

    predicted

    Прогнозируемые выходы нейронной сети.

    expected

    Ожидаемые значения, то есть цели, которые соответствуют правильному результату.

    reduction

    Сокращение, применяемое к вычисленным значениям поэлементных потерь.

  • Вычисляет потери Пуассона между прогнозируемым и ожидались Потеря Пуассона является средним элементов Tensor predicted - expected * log(predicted) .

    Декларация

    @differentiable(wrt: predicted)
    @differentiable(wrt: (predicted, expected)
    public func poissonLoss<Scalar: TensorFlowFloatingPoint>(
      predicted: Tensor<Scalar>,
      expected: Tensor<Scalar>,
      reduction: @differentiable (Tensor<Scalar>) -> Tensor<Scalar> = _mean
    ) -> Tensor<Scalar>

    Параметры

    predicted

    Прогнозируемые выходы нейронной сети.

    expected

    Ожидаемые значения, то есть цели, которые соответствуют правильному результату.

    reduction

    Сокращение, применяемое к вычисленным значениям поэлементных потерь.

  • Вычисляет Кульбак-Либлер потеря расхождения между expected и predicted . loss = reduction(expected * log(expected / predicted))

    Декларация

    @differentiable(wrt: predicted)
    @differentiable(wrt: (predicted, expected)
    public func kullbackLeiblerDivergence<Scalar: TensorFlowFloatingPoint>(
      predicted: Tensor<Scalar>,
      expected: Tensor<Scalar>,
      reduction: @differentiable (Tensor<Scalar>) -> Tensor<Scalar> = _sum
    ) -> Tensor<Scalar>

    Параметры

    predicted

    Прогнозируемые выходы нейронной сети.

    expected

    Ожидаемые значения, то есть цели, которые соответствуют правильному результату.

    reduction

    Сокращение, применяемое к вычисленным значениям поэлементных потерь.

  • Вычисляет разреженную перекрестную энтропию softmax (категориальную перекрестную энтропию) между логитами и метками. Используйте эту функцию потерь кроссэнтропии, когда существует два или более классов меток. Мы ожидаем, что метки будут представлены в виде целых чисел. Там должно быть # classes значений с плавающей запятой в особенности для logits и одного значения с плавающей запятой в особенности для expected .

    Декларация

    @differentiable(wrt: logits)
    public func softmaxCrossEntropy<Scalar: TensorFlowFloatingPoint>(
      logits: Tensor<Scalar>,
      labels: Tensor<Int32>,
      reduction: @differentiable (Tensor<Scalar>) -> Tensor<Scalar> = _mean
    ) -> Tensor<Scalar>

    Параметры

    logits

    Одновременно закодированные выходы из нейронной сети.

    labels

    Индексы (с нулевым индексом) правильных выходов.

    reduction

    Сокращение, применяемое к вычисленным значениям поэлементных потерь.

  • Вычисляет разреженную перекрестную энтропию softmax (категориальную перекрестную энтропию) между логитами и метками. Используйте эту функцию потерь кроссэнтропии, когда существует два или более классов меток. Мы ожидаем , что метки должны быть предоставлены при условии , в one_hot представлении. Там должно быть # classes значений с плавающей запятой в функции.

    Декларация

    @differentiable(wrt: logits)
    public func softmaxCrossEntropy<Scalar: TensorFlowFloatingPoint>(
      logits: Tensor<Scalar>,
      probabilities: Tensor<Scalar>,
      reduction: @differentiable (Tensor<Scalar>) -> Tensor<Scalar> = _mean
    ) -> Tensor<Scalar>

    Параметры

    logits

    Немасштабированные вероятности журнала из нейронной сети.

    probabilities

    Значения вероятности, соответствующие правильному выходу. Каждая строка должна быть допустимым распределением вероятностей.

    reduction

    Сокращение, применяемое к вычисленным значениям поэлементных потерь.

  • Вычисляет сигмовидную кросс-энтропию (двоичную кросс-энтропию) между логитами и метками. Используйте эту потерю кросс-энтропии, когда существует только два класса меток (предполагается, что это 0 и 1). Для каждого примера должно быть одно значение с плавающей запятой для каждого прогноза.

    Декларация

    @differentiable(wrt: logits)
    @differentiable(wrt: (logits, labels)
    public func sigmoidCrossEntropy<Scalar: TensorFlowFloatingPoint>(
      logits: Tensor<Scalar>,
      labels: Tensor<Scalar>,
      reduction: @differentiable (Tensor<Scalar>) -> Tensor<Scalar> = _mean
    ) -> Tensor<Scalar>

    Параметры

    logits

    Немасштабированный вывод нейронной сети.

    labels

    Целочисленные значения, соответствующие правильному выводу.

    reduction

    Сокращение, применяемое к вычисленным значениям поэлементных потерь.

  • Вычисляет потери Huber между predicted и expected .

    Для каждого значения x в error = expected - predicted :

    Декларация

    @differentiable(wrt: predicted)
    @differentiable(wrt: (predicted, expected)
    public func huberLoss<Scalar: TensorFlowFloatingPoint>(
      predicted: Tensor<Scalar>,
      expected: Tensor<Scalar>,
      delta: Scalar,
      reduction: @differentiable (Tensor<Scalar>) -> Tensor<Scalar> = _sum
    ) -> Tensor<Scalar>

    Параметры

    predicted

    Прогнозируемые выходы нейронной сети.

    expected

    Ожидаемые значения, то есть цели, которые соответствуют правильному результату.

    delta

    Скаляр с плавающей запятой, представляющий точку, в которой функция потерь Хьюбера изменяется с квадратичной на линейную.

    reduction

    Сокращение, применяемое к вычисленным значениям поэлементных потерь.

  • Поэлементно возвращает абсолютное значение указанного тензора.

    Декларация

    @differentiable
    public func abs<T>(_ x: Tensor<T>) -> Tensor<T> where T : SignedNumeric, T : TensorFlowScalar
  • Поэлементно возвращает натуральный логарифм указанного тензора.

    Декларация

    @differentiable
    public func log<T>(_ x: Tensor<T>) -> Tensor<T> where T : TensorFlowFloatingPoint
  • Поэлементно возвращает логарифм по основанию два указанного тензора.

    Декларация

    @differentiable
    public func log2<T>(_ x: Tensor<T>) -> Tensor<T> where T : TensorFlowFloatingPoint
  • Поэлементно возвращает десятичный логарифм указанного тензора.

    Декларация

    @differentiable
    public func log10<T>(_ x: Tensor<T>) -> Tensor<T> where T : TensorFlowFloatingPoint
  • Возвращает логарифм 1 + x поэлементно.

    Декларация

    @differentiable
    public func log1p<T>(_ x: Tensor<T>) -> Tensor<T> where T : TensorFlowFloatingPoint
  • Возвращает log(1 - exp(x)) , используя численно стабильный подход.

    Примечание

    Подход показан в уравнении 7: https://cran.r-project.org/web/packages/Rmpfr/vignettes/log1mexp-note.pdf .

    Декларация

    @differentiable
    public func log1mexp<T>(_ x: Tensor<T>) -> Tensor<T> where T : TensorFlowFloatingPoint
  • Поэлементно возвращает синус указанного тензора.

    Декларация

    @differentiable
    public func sin<T>(_ x: Tensor<T>) -> Tensor<T> where T : TensorFlowFloatingPoint
  • Поэлементно возвращает косинус указанного тензора.

    Декларация

    @differentiable
    public func cos<T>(_ x: Tensor<T>) -> Tensor<T> where T : TensorFlowFloatingPoint
  • Поэлементно возвращает тангенс указанного тензора.

    Декларация

    @differentiable
    public func tan<T>(_ x: Tensor<T>) -> Tensor<T> where T : TensorFlowFloatingPoint
  • Поэлементно возвращает гиперболический синус указанного тензора.

    Декларация

    @differentiable
    public func sinh<T>(_ x: Tensor<T>) -> Tensor<T> where T : TensorFlowFloatingPoint
  • Поэлементно возвращает гиперболический косинус указанного тензора.

    Декларация

    @differentiable
    public func cosh<T>(_ x: Tensor<T>) -> Tensor<T> where T : TensorFlowFloatingPoint
  • Поэлементно возвращает гиперболический тангенс указанного тензора.

    Декларация

    @differentiable
    public func tanh<T>(_ x: Tensor<T>) -> Tensor<T> where T : TensorFlowFloatingPoint
  • Поэлементно возвращает обратный косинус указанного тензора.

    Декларация

    @differentiable
    public func acos<T>(_ x: Tensor<T>) -> Tensor<T> where T : TensorFlowFloatingPoint
  • Поэлементно возвращает обратный синус указанного тензора.

    Декларация

    @differentiable
    public func asin<T>(_ x: Tensor<T>) -> Tensor<T> where T : TensorFlowFloatingPoint
  • Поэлементно возвращает арктангенс указанного тензора.

    Декларация

    @differentiable
    public func atan<T>(_ x: Tensor<T>) -> Tensor<T> where T : TensorFlowFloatingPoint
  • Поэлементно возвращает обратный гиперболический косинус указанного тензора.

    Декларация

    @differentiable
    public func acosh<T>(_ x: Tensor<T>) -> Tensor<T> where T : TensorFlowFloatingPoint
  • Поэлементно возвращает обратный гиперболический синус указанного тензора.

    Декларация

    @differentiable
    public func asinh<T>(_ x: Tensor<T>) -> Tensor<T> where T : TensorFlowFloatingPoint
  • Поэлементно возвращает обратный гиперболический тангенс указанного тензора.

    Декларация

    @differentiable
    public func atanh<T>(_ x: Tensor<T>) -> Tensor<T> where T : TensorFlowFloatingPoint
  • Поэлементно возвращает квадратный корень из указанного тензора.

    Декларация

    @differentiable
    public func sqrt<T>(_ x: Tensor<T>) -> Tensor<T> where T : TensorFlowFloatingPoint
  • Поэлементно возвращает обратный квадратный корень указанного тензора.

    Декларация

    @differentiable
    public func rsqrt<T>(_ x: Tensor<T>) -> Tensor<T> where T : TensorFlowFloatingPoint
  • Поэлементно возвращает экспоненту указанного тензора.

    Декларация

    @differentiable
    public func exp<T>(_ x: Tensor<T>) -> Tensor<T> where T : TensorFlowFloatingPoint
  • Поэлементно возвращает два в степени указанного тензора.

    Декларация

    @differentiable
    public func exp2<T>(_ x: Tensor<T>) -> Tensor<T> where T : TensorFlowFloatingPoint
  • Поэлементно возвращает десять в степени указанного тензора.

    Декларация

    @differentiable
    public func exp10<T>(_ x: Tensor<T>) -> Tensor<T> where T : TensorFlowFloatingPoint
  • Возвращает экспоненту x - 1 поэлементно.

    Декларация

    @differentiable
    public func expm1<T>(_ x: Tensor<T>) -> Tensor<T> where T : TensorFlowFloatingPoint
  • Поэлементно возвращает значения указанного тензора, округленные до ближайшего целого числа.

    Декларация

    @differentiable
    public func round<T>(_ x: Tensor<T>) -> Tensor<T> where T : TensorFlowFloatingPoint
  • Поэлементно возвращает потолок указанного тензора.

    Декларация

    @differentiable
    public func ceil<T>(_ x: Tensor<T>) -> Tensor<T> where T : TensorFlowFloatingPoint
  • Поэлементно возвращает нижний предел указанного тензора.

    Декларация

    @differentiable
    public func floor<T>(_ x: Tensor<T>) -> Tensor<T> where T : TensorFlowFloatingPoint
  • Поэлементно возвращает указание знака указанного тензора. В частности, вычисляет y = sign(x) = -1 , если x < 0 ; 0 , если x == 0 ; 1 , если x > 0 .

    Декларация

    @differentiable
    public func sign<T>(_ x: Tensor<T>) -> Tensor<T> where T : Numeric, T : TensorFlowScalar
  • Поэлементно возвращает сигмоид указанного тензора. В частности, вычисляет 1 / (1 + exp(-x)) .

    Декларация

    @differentiable
    public func sigmoid<T>(_ x: Tensor<T>) -> Tensor<T> where T : TensorFlowFloatingPoint
  • Поэлементно возвращает логарифмический сигмоид указанного тензора. В частности, log(1 / (1 + exp(-x))) . Для численной устойчивости, мы используем -softplus(-x) .

    Декларация

    @differentiable
    public func logSigmoid<T>(_ x: Tensor<T>) -> Tensor<T> where T : TensorFlowFloatingPoint
  • Поэлементно возвращает softplus указанного тензора. В частности, вычисляет log(exp(features) + 1) .

    Декларация

    @differentiable
    public func softplus<T>(_ features: Tensor<T>) -> Tensor<T> where T : TensorFlowFloatingPoint
  • Поэлементно возвращает softtsign указанного тензора. В частности, вычисляет features/ (abs(features) + 1) .

    Декларация

    @differentiable
    public func softsign<T>(_ features: Tensor<T>) -> Tensor<T> where T : TensorFlowFloatingPoint
  • Возвращает softmax указанного тензора вдоль последней оси. В частности, вычисляет exp(x) / exp(x).sum(alongAxes: -1) .

    Декларация

    @differentiable
    public func softmax<T>(_ x: Tensor<T>) -> Tensor<T> where T : TensorFlowFloatingPoint
  • Возвращает softmax указанного тензора вдоль указанной оси. В частности, вычисляет exp(x) / exp(x).sum(alongAxes: axis) .

    Декларация

    @differentiable
    public func softmax<T>(_ x: Tensor<T>, alongAxis axis: Int) -> Tensor<T> where T : TensorFlowFloatingPoint
  • Поэлементно возвращает log-softmax указанного тензора.

    Декларация

    @differentiable
    public func logSoftmax<T>(_ x: Tensor<T>) -> Tensor<T> where T : TensorFlowFloatingPoint
  • Возвращает тензор, применяя экспоненциальную линейную единицу. В частности, вычисляет exp(x) - 1 , если <0, x в противном случае. См Быстрая и точная Deep Learning Network экспоненциальной линейных единиц (ЭЛУС)

    Декларация

    @differentiable
    public func elu<T>(_ x: Tensor<T>) -> Tensor<T> where T : TensorFlowFloatingPoint
  • Поэлементно возвращает активацию гауссовой линейной единицы погрешности (GELU) указанного тензора.

    В частности, gelu аппроксимирует xP(X <= x) , где P(X <= x) является кумулятивное распределение Стандартный гауссовым, путем вычисления: х * [0,5 * (1 + TANH [√ (2 / π) * (х + 0,044715 * x ^ 3)])].

    См Gaussian ошибки линейных единицах .

    Декларация

    @differentiable
    public func gelu<T>(_ x: Tensor<T>) -> Tensor<T> where T : TensorFlowFloatingPoint
  • Возвращает тензор, поэлементно применяя функцию активации ReLU к указанному тензору. В частности, вычисляет max(0, x) .

    Декларация

    @differentiable
    public func relu<T>(_ x: Tensor<T>) -> Tensor<T> where T : TensorFlowFloatingPoint
  • Возвращает тензор, применяя функцию активации, а именно ReLU6 min(max(0, x), 6) .

    Декларация

    @differentiable
    public func relu6<T>(_ x: Tensor<T>) -> Tensor<T> where T : TensorFlowFloatingPoint
  • Возвращает тензор, поэлементно применяя функцию активации утечки ReLU к указанному тензору. В частности, вычисляет max(x, x * alpha) .

    Декларация

    @differentiable(wrt: x)
    public func leakyRelu<T: TensorFlowFloatingPoint>(
      _ x: Tensor<T>,
      alpha: Double = 0.2
    ) -> Tensor<T>
  • Возвращает тензор, применяя функцию активации Sēļu, а именно scale * alpha * (exp(x) - 1) , если x < 0 , и scale * x в противном случае.

    Примечание

    Это предназначено для использования вместе с инициализаторами уровня масштабирования дисперсии. Пожалуйста , обратитесь к самонормализует Neural Networks для получения дополнительной информации.

    Декларация

    @differentiable
    public func selu<T>(_ x: Tensor<T>) -> Tensor<T> where T : TensorFlowFloatingPoint
  • Возвращает тензор, применяя функцию активации свист, а именно x * sigmoid(x) .

    Источник: (. Рамачандрану и др +2017) «Поиск функций активации» https://arxiv.org/abs/1710.05941

    Декларация

    @differentiable
    public func swish<T>(_ x: Tensor<T>) -> Tensor<T> where T : TensorFlowFloatingPoint
  • Возвращает тензор с применением жесткой сигмовидной функции активации, а именно Relu6(x+3)/6 .

    Источник: «Поиск MobileNetV3» (. Говард и др 2019) https://arxiv.org/abs/1905.02244

    Декларация

    @differentiable
    public func hardSigmoid<T>(_ x: Tensor<T>) -> Tensor<T> where T : TensorFlowFloatingPoint
  • Возвращает тензор с применением жесткой свистом функции активации, а именно x * Relu6(x+3)/6 .

    Источник: «Поиск MobileNetV3» (. Говард и др 2019) https://arxiv.org/abs/1905.02244

    Декларация

    @differentiable
    public func hardSwish<T>(_ x: Tensor<T>) -> Tensor<T> where T : TensorFlowFloatingPoint
  • Возвращает тензор, применяя миша функции активации, а именно x * tanh(softplus(x)) .

    Источник: «Миши: Самоподдерживающаяся регуляризированный Немонотонной Neural Активация функция» https://arxiv.org/abs/1908.08681

    Декларация

    @differentiable
    public func mish<T>(_ x: Tensor<T>) -> Tensor<T> where T : TensorFlowFloatingPoint
  • Возвращает степень первого тензора ко второму тензору.

    Декларация

    @differentiable
    public func pow<T>(_ lhs: Tensor<T>, _ rhs: Tensor<T>) -> Tensor<T> where T : TensorFlowFloatingPoint
  • Возвращает степень скаляра в тензор, транслируя скаляр.

    Декларация

    @differentiable(wrt: rhs)
    public func pow<T>(_ lhs: T, _ rhs: Tensor<T>) -> Tensor<T> where T : TensorFlowFloatingPoint
  • Возвращает степень тензора к скаляру, передавая скаляр.

    Декларация

    @differentiable(wrt: lhs)
    public func pow<T>(_ lhs: Tensor<T>, _ rhs: T) -> Tensor<T> where T : TensorFlowFloatingPoint
  • Возвращает степень тензора к скаляру, передавая скаляр.

    Декларация

    @differentiable
    public func pow<T>(_ x: Tensor<T>, _ n: Int) -> Tensor<T> where T : TensorFlowFloatingPoint
  • Возвращает поэлементно n - й корень тензора.

    Декларация

    @differentiable
    public func root<T>(_ x: Tensor<T>, _ n: Int) -> Tensor<T> where T : TensorFlowFloatingPoint
  • Возвращает квадрат разности между x и y .

    Декларация

    @differentiable
    public func squaredDifference<T>(_ x: Tensor<T>, _ y: Tensor<T>) -> Tensor<T> where T : Numeric, T : TensorFlowScalar

    Возвращаемое значение

    (x - y) ^ 2 .

  • Возвращает поэлементный максимум двух тензоров.

    Примечание

    max поддерживает вещание.

    Декларация

    @differentiable
    public func max<T>(_ lhs: Tensor<T>, _ rhs: Tensor<T>) -> Tensor<T> where T : Comparable, T : Numeric, T : TensorFlowScalar
  • Возвращает поэлементный максимум скаляра и тензора, передавая скаляр.

    Декларация

    @differentiable(wrt: rhs)
    public func max<T>(_ lhs: T, _ rhs: Tensor<T>) -> Tensor<T> where T : Comparable, T : Numeric, T : TensorFlowScalar
  • Возвращает поэлементный максимум скаляра и тензора, передавая скаляр.

    Декларация

    @differentiable(wrt: lhs)
    public func max<T>(_ lhs: Tensor<T>, _ rhs: T) -> Tensor<T> where T : Comparable, T : Numeric, T : TensorFlowScalar
  • Возвращает поэлементный минимум двух тензоров.

    Примечание

    min поддерживает вещание.

    Декларация

    @differentiable
    public func min<T>(_ lhs: Tensor<T>, _ rhs: Tensor<T>) -> Tensor<T> where T : Comparable, T : Numeric, T : TensorFlowScalar
  • Возвращает поэлементный минимум скаляра и тензора, транслируя скаляр.

    Декларация

    @differentiable(wrt: rhs)
    public func min<T>(_ lhs: T, _ rhs: Tensor<T>) -> Tensor<T> where T : Comparable, T : Numeric, T : TensorFlowScalar
  • Возвращает поэлементный минимум скаляра и тензора, транслируя скаляр.

    Декларация

    @differentiable(wrt: lhs)
    public func min<T>(_ lhs: Tensor<T>, _ rhs: T) -> Tensor<T> where T : Comparable, T : Numeric, T : TensorFlowScalar
  • Возвращает косинус сходство между x и y .

    Декларация

    @differentiable
    public func cosineSimilarity<Scalar: TensorFlowFloatingPoint>(
      _ x: Tensor<Scalar>,
      _ y: Tensor<Scalar>
    ) -> Tensor<Scalar>
  • Возвращает расстояние между косинус x и y . Косинус расстояние определяется как 1 - cosineSimilarity(x, y) .

    Декларация

    @differentiable
    public func cosineDistance<Scalar: TensorFlowFloatingPoint>(
      _ x: Tensor<Scalar>,
      _ y: Tensor<Scalar>
    ) -> Tensor<Scalar>
  • Производит умножение матрицы на другой тензор и выдает результат.

    Декларация

    @differentiable
    public func matmul<Scalar: Numeric>(
      _ lhs: Tensor<Scalar>,
      transposed transposeLhs: Bool = false,
      _ rhs: Tensor<Scalar>,
      transposed transposeRhs: Bool = false
    ) -> Tensor<Scalar>
  • Возвращает одномерную свертку с указанными входными данными, фильтром, шагом и заполнением.

    Предварительное условие

    input должен иметь ранг 3 .

    Предварительное условие

    filter должен иметь ранг 3.

    Декларация

    @differentiable(wrt: (input, filter)
    public func conv1D<Scalar: TensorFlowFloatingPoint>(
      _ input: Tensor<Scalar>,
      filter: Tensor<Scalar>,
      stride: Int = 1,
      padding: Padding = .valid,
      dilation: Int = 1
    ) -> Tensor<Scalar>

    Параметры

    input

    Вход.

    filter

    Фильтр свертки.

    stride

    Шаг скользящего фильтра.

    padding

    Прокладка для операции.

    dilation

    Фактор расширения.

  • Возвращает двумерную свертку с указанными входными данными, фильтром, шагами и заполнением.

    Предварительное условие

    input должен иметь ранг 4 .

    Предварительное условие

    filter должен иметь ранг 4.

    Декларация

    @differentiable(wrt: (input, filter)
    public func conv2D<Scalar: TensorFlowFloatingPoint>(
      _ input: Tensor<Scalar>,
      filter: Tensor<Scalar>,
      strides: (Int, Int, Int, Int) = (1, 1, 1, 1),
      padding: Padding = .valid,
      dilations: (Int, Int, Int, Int) = (1, 1, 1, 1)
    ) -> Tensor<Scalar>

    Параметры

    input

    Вход.

    filter

    Фильтр свертки.

    strides

    Шаги скользящего фильтра для каждого измерения ввода.

    padding

    Прокладка для операции

    dilations

    Фактор расширения для каждого измерения входных данных.

  • Возвращает двумерную транспонированную свертку с указанными входными данными, фильтром, шагами и заполнением.

    Предварительное условие

    input должен иметь ранг 4 .

    Предварительное условие

    filter должен иметь ранг 4.

    Декларация

    @differentiable(wrt: (input, filter)
    public func transposedConv2D<Scalar: TensorFlowFloatingPoint>(
      _ input: Tensor<Scalar>,
      shape: [Int64],
      filter: Tensor<Scalar>,
      strides: (Int, Int, Int, Int) = (1, 1, 1, 1),
      padding: Padding = .valid,
      dilations: (Int, Int, Int, Int) = (1, 1, 1, 1)
    ) -> Tensor<Scalar>

    Параметры

    input

    Вход.

    shape

    Форма вывода операции деконволюции.

    filter

    Фильтр свертки.

    strides

    Шаги скользящего фильтра для каждого измерения ввода.

    padding

    Прокладка для операции

    dilations

    Коэффициент расширения для каждого измерения входных данных.

  • Возвращает трехмерную свертку с указанными входными данными, фильтром, шагами, заполнением и расширениями.

    Предварительное условие

    input должен иметь ранг 5 .

    Предварительное условие

    filter должен иметь ранг 5.

    Декларация

    @differentiable(wrt: (input, filter)
    public func conv3D<Scalar: TensorFlowFloatingPoint>(
      _ input: Tensor<Scalar>,
      filter: Tensor<Scalar>,
      strides: (Int, Int, Int, Int, Int) = (1, 1, 1, 1, 1),
      padding: Padding = .valid,
      dilations: (Int, Int, Int, Int, Int) = (1, 1, 1, 1, 1)
    ) -> Tensor<Scalar>

    Параметры

    input

    Вход.

    filter

    Фильтр свертки.

    strides

    Шаги скользящего фильтра для каждого измерения ввода.

    padding

    Прокладка для операции.

    dilations

    Коэффициент расширения для каждого измерения входных данных.

  • Возвращает двумерную глубинную свертку с указанными входными данными, фильтром, шагами и заполнением.

    Предварительное условие

    input должен иметь ранг 4.

    Предварительное условие

    filter должен иметь ранг 4.

    Декларация

    @differentiable(wrt: (input, filter)
    public func depthwiseConv2D<Scalar: TensorFlowFloatingPoint>(
      _ input: Tensor<Scalar>,
      filter: Tensor<Scalar>,
      strides: (Int, Int, Int, Int),
      padding: Padding
    ) -> Tensor<Scalar>

    Параметры

    input

    Вход.

    filter

    Глубинный фильтр свертки.

    strides

    Шаги скользящего фильтра для каждого измерения ввода.

    padding

    Прокладка для операции.

  • Возвращает двумерный максимальный пул с указанными размерами фильтра, шагами и заполнением.

    Декларация

    @differentiable(wrt: input)
    public func maxPool2D<Scalar: TensorFlowFloatingPoint>(
      _ input: Tensor<Scalar>,
      filterSize: (Int, Int, Int, Int),
      strides: (Int, Int, Int, Int),
      padding: Padding
    ) -> Tensor<Scalar>

    Параметры

    input

    Вход.

    filterSize

    Размеры ядра пула.

    strides

    Шаги скользящего фильтра для каждого измерения ввода.

    padding

    Прокладка для операции.

  • Возвращает объемный максимальный пул с указанными размерами фильтра, шагами и заполнением.

    Декларация

    @differentiable(wrt: input)
    public func maxPool3D<Scalar: TensorFlowFloatingPoint>(
      _ input: Tensor<Scalar>,
      filterSize: (Int, Int, Int, Int, Int),
      strides: (Int, Int, Int, Int, Int),
      padding: Padding
    ) -> Tensor<Scalar>

    Параметры

    input

    Вход.

    filterSize

    Размеры ядра пула.

    strides

    Шаги скользящего фильтра для каждого измерения ввода.

    padding

    Прокладка для операции.

  • Возвращает 2-мерный средний пул с указанными размерами фильтра, шагами и заполнением.

    Декларация

    @differentiable(wrt: input)
    public func avgPool2D<Scalar: TensorFlowFloatingPoint>(
      _ input: Tensor<Scalar>,
      filterSize: (Int, Int, Int, Int),
      strides: (Int, Int, Int, Int),
      padding: Padding
    ) -> Tensor<Scalar>

    Параметры

    input

    Вход.

    filterSize

    Размеры ядра пула.

    strides

    Шаги скользящего фильтра для каждого измерения ввода.

    padding

    Прокладка для операции.

  • Возвращает 3-D средний пул с указанными размерами фильтра, шагами и заполнением.

    Декларация

    @differentiable(wrt: input)
    public func avgPool3D<Scalar: TensorFlowFloatingPoint>(
      _ input: Tensor<Scalar>,
      filterSize: (Int, Int, Int, Int, Int),
      strides: (Int, Int, Int, Int, Int),
      padding: Padding
    ) -> Tensor<Scalar>

    Параметры

    input

    Вход.

    filterSize

    Размеры ядра пула.

    strides

    Шаги скользящего фильтра для каждого измерения ввода.

    padding

    Прокладка для операции.

  • Возвращает двумерное дробное максимальное объединение с указанными коэффициентами объединения.

    Примечание: fractionalMaxPool не имеет реализации XLA, и , таким образом , может повлиять на производительность.

    Декларация

    @differentiable(wrt: input)
    public func fractionalMaxPool2D<Scalar: TensorFlowFloatingPoint>(
      _ input: Tensor<Scalar>,
      poolingRatio: (Double, Double, Double, Double),
      pseudoRandom: Bool = false,
      overlapping: Bool = false,
      deterministic: Bool = false,
      seed: Int64 = 0,
      seed2: Int64 = 0
    ) -> Tensor<Scalar>

    Параметры

    input

    Тензор. 4-D с формой [batch, height, width, channels] .

    poolingRatio

    Список Doubles . Аккумулирование соотношения для каждого измерения input , в настоящее время поддерживает только строку и Col измерение и должно быть> = 1,0.

    pseudoRandom

    Необязательный Bool . По умолчанию , false . Если установлено значение true , генерирует последовательность пула в псевдослучайной моды, в противном случае, случайным образом.

    overlapping

    Необязательный Bool . По умолчанию , false . Когда установлено в true , это означает , что при объединении, значения на границе соседних аккумулирования клеток используются оба клетками.

    deterministic

    Дополнительный Bool . При установке на true , фиксированная область пула будет использоваться при переборе над узлом fractionalMaxPool2D в вычислении графа.

    seed

    Необязательный Int64 . Значение по умолчанию 0 . Если установлено ненулевое значение, генератор случайных чисел заполняется заданным семенем.

    seed2

    Необязательный Int64 . Значение по умолчанию 0 . Второе семя, чтобы избежать столкновения семян.

  • Возвращает копию input , где значения из измерения глубины перемещается в пространственных блоках до высоты и ширины.

    Например, если ввод формы [1, 2, 2, 1] , data_format = «NHWC» и BLOCK_SIZE = 2:

    x = [[[[1], [2]],
          [[3], [4]]]]
    

    Этот выход операция будет тензор формы [1, 1, 1, 4] :

    [[[[1, 2, 3, 4]]]]
    

    Здесь вход имеет партию 1 , и каждая партия элемент имеет форму [2, 2, 1] , соответствующий выход будет иметь один элемент (т.е. ширина и высота оба 1) и будет иметь глубину 4 канала (1 * размер_блока * размер_блока). Форма выходного элемента [1, 1, 4] .

    Для тензора входного с большей глубиной, здесь в форме [1, 2, 2, 3] , например ,

    x = [[[[1, 2, 3], [4, 5, 6]],
          [[7, 8, 9], [10, 11, 12]]]]
    

    Эта операция, для BLOCK_SIZE 2, возвращает следующую тензор формы [1, 1, 1, 12]

    [[[[1, 2, 3, 4, 5, 6, 7, 8, 9, 10, 11, 12]]]]
    

    Аналогичным образом , для следующего ввода формы [1 4 4 1] , и размером блока 2:

    x = [[[[1],   [2],  [5],  [6]],
          [[3],   [4],  [7],  [8]],
          [[9],  [10], [13],  [14]],
          [[11], [12], [15],  [16]]]]
    

    оператор возвращает следующую тензор формы [1 2 2 4] :

    x = [[[[1, 2, 3, 4],
           [5, 6, 7, 8]],
          [[9, 10, 11, 12],
           [13, 14, 15, 16]]]]
    

    Предварительное условие

    input.rank == 4 && b >= 2 .

    Предварительное условие

    Количество функций должно делиться на квадрат b .

    Декларация

    @differentiable(wrt: input)
    public func depthToSpace<Scalar>(_ input: Tensor<Scalar>, blockSize b: Int) -> Tensor<Scalar> where Scalar : TensorFlowScalar
  • Возвращает копию input , где значение от высоты и ширины перемещается в измерение глубины.

    Например, если ввод формы [1, 2, 2, 1] , data_format = «NHWC» и BLOCK_SIZE = 2:

    x = [[[[1], [2]],
          [[3], [4]]]]
    

    Этот выход операция будет тензор формы [1, 1, 1, 4] :

    [[[[1, 2, 3, 4]]]]
    

    Here, the input has a batch of 1 and each batch element has shape [2, 2, 1] , the corresponding output will have a single element (ie width and height are both 1) and will have a depth of 4 channels (1 * block_size * block_size). The output element shape is [1, 1, 4] .

    For an input tensor with larger depth, here of shape [1, 2, 2, 3] , eg

    x = [[[[1, 2, 3], [4, 5, 6]],
          [[7, 8, 9], [10, 11, 12]]]]
    

    This operation, for block_size of 2, will return the following tensor of shape [1, 1, 1, 12]

    [[[[1, 2, 3, 4, 5, 6, 7, 8, 9, 10, 11, 12]]]]
    

    Similarly, for the following input of shape [1 4 4 1] , and a block size of 2:

    x = [[[[1],   [2],  [5],  [6]],
          [[3],   [4],  [7],  [8]],
          [[9],  [10], [13],  [14]],
          [[11], [12], [15],  [16]]]]
    

    the operator will return the following tensor of shape [1 2 2 4] :

    x = [[[[1, 2, 3, 4],
           [5, 6, 7, 8]],
          [[9, 10, 11, 12],
           [13, 14, 15, 16]]]]
    

    Precondition

    input.rank == 4 && b >= 2 .

    Precondition

    The height of the input must be divisible by b .

    Precondition

    The width of the input must be divisible by b .

    Декларация

    @differentiable(wrt: input)
    public func spaceToDepth<Scalar>(_ input: Tensor<Scalar>, blockSize b: Int) -> Tensor<Scalar> where Scalar : TensorFlowScalar
  • Builds a per-weight optimizer for LARS ( https://arxiv.org/pdf/1708.03888.pdf ).

    Декларация

    public func makeLARS(
      learningRate: Float = 0.01,
      momentum: Float = 0.9,
      trustCoefficient: Float = 0.001,
      nesterov: Bool = false,
      epsilon: Float = 0.0,
      weightDecay: Float = 0.0
    ) -> ParameterGroupOptimizer
  • Builds a SGD based per-weight optimizer.

    Декларация

    public func makeSGD(
      learningRate: Float = 0.01,
      momentum: Float = 0,
      weightDecay: Float = 0,
      nesterov: Bool = false
    ) -> ParameterGroupOptimizer
  • Builds a per-weight optimizer for Adam with weight decay.

    Reference: “Adam - A Method for Stochastic Optimization”

    Декларация

    public func makeAdam(
      learningRate: Float = 0.01,
      beta1: Float = 0.9,
      beta2: Float = 0.999,
      weightDecayRate: Float = 0.01,
      epsilon: Float = 1e-6
    ) -> ParameterGroupOptimizer
  • Generates a new random seed for TensorFlow.

    Декларация

    public func randomSeedForTensorFlow(using seed: TensorFlowSeed? = nil) -> TensorFlowSeed
  • Concatenates two values.

    Декларация

    @differentiable
    public func concatenate<T: Mergeable>(
      _ first: T,
      _ second: T
    ) -> T
  • Adds two values and produces their sum.

    Декларация

    @differentiable
    public func sum<T: Mergeable>(
      _ first: T,
      _ second: T
    ) -> T
  • Averages two values.

    Декларация

    @differentiable
    public func average<T: Mergeable>(
      _ first: T,
      _ second: T
    ) -> T
  • Multiplies two values.

    Декларация

    @differentiable
    public func multiply<T: Mergeable>(
      _ first: T,
      _ second: T
    ) -> T
  • Stack two values.

    Декларация

    @differentiable
    public func stack<T: Mergeable>(
      _ first: T,
      _ second: T
    ) -> T
  • Декларация

    public func PrintX10Metrics()
  • Creates a string summary of a list of training and testing stats.

    Декларация

    public func formatStatistics(_ stats: (train: HostStatistics, test: HostStatistics)) -> String
  • Декларация

    public func formatStatistics(train trainStats: HostStatistics, test testStats: HostStatistics)
      -> String
  • Maps a function over n threads.

    Декларация

    public func runOnNThreads<R>(_ nThreads: Int, _ body: @escaping (Int) -> R) -> [R]