Halaman ini diterjemahkan oleh Cloud Translation API.
Switch to English

tensorflow :: ops :: SoftmaxCrossEntropyWithLogits

#include <nn_ops.h>

Menghitung biaya entropi silang softmax dan gradien ke propagasi mundur.

Ringkasan

Masukan adalah logits, bukan probabilitas.

Argumen:

  • scope: Objek Scope
  • fitur: matriks batch_size x num_classes
  • label: matriks batch_size x num_classes Pemanggil harus memastikan bahwa setiap batch label mewakili distribusi probabilitas yang valid.

Pengembalian:

  • Kehilangan Output : Per contoh kerugian (vektor ukuran_batch).
  • Output backprop: gradien backpropagated (matriks batch_size x num_classes).

Pembuat dan Penghancur

SoftmaxCrossEntropyWithLogits (const :: tensorflow::Scope & scope, :: tensorflow::Input features, :: tensorflow::Input labels)

Atribut publik

backprop
loss
operation

Atribut publik

backprop

::tensorflow::Output backprop

kerugian

::tensorflow::Output loss

operasi

Operation operation

Fungsi publik

SoftmaxCrossEntropyWithLogits

 SoftmaxCrossEntropyWithLogits(
  const ::tensorflow::Scope & scope,
  ::tensorflow::Input features,
  ::tensorflow::Input labels
)