tensör akışı:: operasyon:: SparseSoftmaxCrossEntropyWithLogits
#include <nn_ops.h>
Geri yayılım için softmax çapraz entropi maliyetini ve gradyanları hesaplar.
Özet
SoftmaxCrossEntropyWithLogits
aksine, bu işlem bir etiket olasılıkları matrisini değil, özellik satırı başına tek bir etiketi kabul eder. Bu etiketin, verilen satır için 1.0 olasılığa sahip olduğu kabul edilir.
Girdiler, olasılıklar değil, logitlerdir.
Argümanlar:
- kapsam: Bir Kapsam nesnesi
- özellikler: batch_size x num_classes matrisi
- etiketler: [0, num_classes) içindeki değerlere sahip batch_size vektörü. Bu, verilen mini parti girişi için etikettir.
İadeler:
-
Output
kaybı: Örnek başına kayıp (batch_size vektörü). -
Output
backprop: geri yayılan gradyanlar (batch_size x num_classes matrix).
Yapıcılar ve Yıkıcılar | |
---|---|
SparseSoftmaxCrossEntropyWithLogits (const :: tensorflow::Scope & scope, :: tensorflow::Input features, :: tensorflow::Input labels) |
Genel özellikler | |
---|---|
backprop | |
loss | |
operation |
Genel özellikler
arka plan
::tensorflow::Output backprop
kayıp
::tensorflow::Output loss
operasyon
Operation operation
Kamu işlevleri
SparseSoftmaxCrossEntropyWithLogits
SparseSoftmaxCrossEntropyWithLogits( const ::tensorflow::Scope & scope, ::tensorflow::Input features, ::tensorflow::Input labels )