Google I/O'yu ayarladığınız için teşekkür ederiz. İsteğe bağlı olarak tüm oturumları görüntüleyin İsteğe bağlı olarak izleyin

tensorflow :: ops :: SoftmaxCrossEntropyWithLogits

#include <nn_ops.h>

Backpropagate için softmax çapraz entropi maliyetini ve gradyanlarını hesaplar.

Özet

Girdiler, olasılıklar değil, logitlerdir.

Argümanlar:

  • kapsam: Bir Scope nesnesi
  • özellikler: batch_size x sayı_sınıf matrisi
  • etiketler: batch_size x sınıf_sayıları matrisi Arayan, her bir etiket grubunun geçerli bir olasılık dağılımını temsil ettiğinden emin olmalıdır.

İadeler:

  • Output kaybı: Örnek kayıp başına (batch_size vektörü).
  • Output geri dönüşü: geri yayılmış degradeler (batch_size x num_class matrix).

Yapıcılar ve Yıkıcılar

SoftmaxCrossEntropyWithLogits (const :: tensorflow::Scope & scope, :: tensorflow::Input features, :: tensorflow::Input labels)

Genel özellikler

backprop
loss
operation

Genel özellikler

arka plan

::tensorflow::Output backprop

kayıp

::tensorflow::Output loss

operasyon

Operation operation

Kamusal işlevler

SoftmaxCrossEntropyWithLogits

 SoftmaxCrossEntropyWithLogits(
  const ::tensorflow::Scope & scope,
  ::tensorflow::Input features,
  ::tensorflow::Input labels
)