tensor akışı:: işlem:: SparseSoftmaxCrossEntropyWithLogits

#include <nn_ops.h>

Softmax çapraz entropi maliyetini ve geriye yayılacak gradyanları hesaplar.

Özet

SoftmaxCrossEntropyWithLogits farklı olarak bu işlem, bir etiket olasılıkları matrisini kabul etmez, bunun yerine özellik satırı başına tek bir etiketi kabul eder. Bu etiketin verilen satır için 1,0 olasılığa sahip olduğu kabul edilir.

Girdiler logitlerdir, olasılıklar değil.

Argümanlar:

  • kapsam: Bir Kapsam nesnesi
  • özellikler: Batch_size x num_classes matrisi
  • etiketler: [0, num_classes) cinsinden değerlere sahip Batch_size vektörü. Bu, verilen mini parti girişinin etiketidir.

İadeler:

  • Output kaybı: Örnek başına kayıp (batch_size vektörü).
  • Output geri desteği: geri yayılan degradeler (batch_size x num_classes matrisi).

Yapıcılar ve Yıkıcılar

SparseSoftmaxCrossEntropyWithLogits (const :: tensorflow::Scope & scope, :: tensorflow::Input features, :: tensorflow::Input labels)

Genel özellikler

backprop
loss
operation

Genel özellikler

arka pervane

::tensorflow::Output backprop

kayıp

::tensorflow::Output loss

operasyon

Operation operation

Kamu işlevleri

SparseSoftmaxCrossEntropyWithLogits

 SparseSoftmaxCrossEntropyWithLogits(
  const ::tensorflow::Scope & scope,
  ::tensorflow::Input features,
  ::tensorflow::Input labels
)