Google I/O'yu ayarladığınız için teşekkür ederiz. İsteğe bağlı olarak tüm oturumları görüntüleyin İsteğe bağlı olarak izleyin

tensör akışı:: operasyon:: SparseSoftmaxCrossEntropyWithLogits

#include <nn_ops.h>

Geri yayılım için softmax çapraz entropi maliyetini ve gradyanları hesaplar.

Özet

SoftmaxCrossEntropyWithLogits aksine, bu işlem bir etiket olasılıkları matrisini değil, özellik satırı başına tek bir etiketi kabul eder. Bu etiketin, verilen satır için 1.0 olasılığa sahip olduğu kabul edilir.

Girdiler, olasılıklar değil, logitlerdir.

Argümanlar:

  • kapsam: Bir Kapsam nesnesi
  • özellikler: batch_size x num_classes matrisi
  • etiketler: [0, num_classes) içindeki değerlere sahip batch_size vektörü. Bu, verilen mini parti girişi için etikettir.

İadeler:

  • Output kaybı: Örnek başına kayıp (batch_size vektörü).
  • Output backprop: geri yayılan gradyanlar (batch_size x num_classes matrix).

Yapıcılar ve Yıkıcılar

SparseSoftmaxCrossEntropyWithLogits (const :: tensorflow::Scope & scope, :: tensorflow::Input features, :: tensorflow::Input labels)

Genel özellikler

backprop
loss
operation

Genel özellikler

arka plan

::tensorflow::Output backprop

kayıp

::tensorflow::Output loss

operasyon

Operation operation

Kamu işlevleri

SparseSoftmaxCrossEntropyWithLogits

 SparseSoftmaxCrossEntropyWithLogits(
  const ::tensorflow::Scope & scope,
  ::tensorflow::Input features,
  ::tensorflow::Input labels
)