SoftmaxCrossEntropyWithLogits

kelas publik SoftmaxCrossEntropyWithLogits

Konstruktor Publik

Metode Publik

statis <T memperluas TNomber , U memperluas TNomber > Operan <T>
softmaxCrossEntropyWithLogits ( Lingkup cakupan, label Operan <U>, logit Operan <T>, sumbu int)
Menghitung entropi silang softmax antara logits dan labels .

Metode Warisan

Konstruktor Publik

SoftmaxCrossEntropyWithLogits publik ()

Metode Publik

Operan statis publik <T> softmaxCrossEntropyWithLogits ( Lingkup cakupan, label Operan <U>, logit Operan <T>, sumbu int)

Menghitung entropi silang softmax antara logits dan labels .

Mengukur kesalahan probabilitas dalam tugas klasifikasi diskrit di mana kelas-kelasnya saling eksklusif (setiap entri berada tepat di satu kelas). Misalnya, setiap gambar CIFAR-10 diberi label dengan satu dan hanya satu label: gambar dapat berupa anjing atau truk, namun tidak keduanya.

CATATAN:

Meskipun kelas-kelas tersebut saling eksklusif, probabilitasnya tidak harus sama. Yang diperlukan hanyalah setiap baris labels merupakan distribusi probabilitas yang valid. Jika tidak, penghitungan gradien akan salah.

Jika menggunakan labels eksklusif (yang mana hanya satu dan hanya satu kelas yang benar pada satu waktu), lihat ERROR(/org.tensorflow.op.NnOps#sparseSoftmaxCrossEntropyWithLogits)

Penggunaan:

   Operand<TFloat32> logits =
       tf.constant(new float[][] { {4.0F, 2.0F, 1.0F}, {0.0F, 5.0F, 1.0F} } );
   Operand<TFloat32> labels =
       tf.constant(new float[][] { {1.0F, 0.0F, 0.0F}, {0.0F, 0.8F, 0.2F} } );
   Operand<TFloat32> output =
       tf.nn.softmaxCrossEntropyWithLogits(labels, logits, -1);
   // output Shape = [2]
   // dataType = FLOAT (1)
   // values { 0.169846, 0.824745 }
 

Propagasi mundur akan terjadi pada logits dan labels . Untuk melarang propagasi mundur ke dalam labels , teruskan tensor label melalui tf.stopGradient sebelum memasukkannya ke fungsi ini.

Parameter
cakupan ruang lingkup saat ini
label Setiap vektor di sepanjang dimensi kelas harus memiliki distribusi probabilitas yang valid, misalnya untuk kasus di mana label berbentuk [batch_size, num_classes] , setiap baris labels[i] harus berupa distribusi probabilitas yang valid.
logit Aktivasi per label, biasanya berupa keluaran linier. Energi aktivasi ini ditafsirkan sebagai probabilitas log yang tidak dinormalisasi.
sumbu Dimensi kelas. -1 adalah dimensi terakhir.
Kembali
  • kerugian entropi silang softmax. Tipenya sama dengan logits dan bentuknya sama dengan labels , hanya saja labels tidak memiliki dimensi terakhir.