Halaman ini diterjemahkan oleh Cloud Translation API.
Switch to English

tensorflow :: ops :: SparseSoftmaxCrossEntropyWithLogits

#include <nn_ops.h>

Menghitung biaya entropi silang softmax dan gradien ke propagasi mundur.

Ringkasan

Tidak seperti SoftmaxCrossEntropyWithLogits , operasi ini tidak menerima matriks probabilitas label, melainkan satu label per baris fitur. Label ini dianggap memiliki probabilitas 1.0 untuk baris tertentu.

Masukan adalah logits, bukan probabilitas.

Argumen:

  • scope: Objek Scope
  • fitur: matriks batch_size x num_classes
  • Label: vektor ukuran_batch dengan nilai dalam [0, num_classes). Ini adalah label untuk entri minibatch yang diberikan.

Pengembalian:

  • Kehilangan Output : Per contoh kerugian (vektor ukuran_batch).
  • Output backprop: gradien backpropagated (matriks batch_size x num_classes).

Pembuat dan Penghancur

SparseSoftmaxCrossEntropyWithLogits (const :: tensorflow::Scope & scope, :: tensorflow::Input features, :: tensorflow::Input labels)

Atribut publik

backprop
loss
operation

Atribut publik

backprop

::tensorflow::Output backprop
.dll

kerugian

::tensorflow::Output loss

operasi

Operation operation

Fungsi publik

SparseSoftmaxCrossEntropyWithLogits

 SparseSoftmaxCrossEntropyWithLogits(
  const ::tensorflow::Scope & scope,
  ::tensorflow::Input features,
  ::tensorflow::Input labels
)