Odpowiedz już dziś na lokalne wydarzenie TensorFlow Everywhere!
Ta strona została przetłumaczona przez Cloud Translation API.
Switch to English

tensorflow :: ops :: SparseSoftmaxCrossEntropyWithLogits

#include <nn_ops.h>

Oblicza koszt entropii krzyżowej softmax i gradienty do wstecznej propagacji.

Podsumowanie

W przeciwieństwie do SoftmaxCrossEntropyWithLogits , ta operacja nie akceptuje macierzy prawdopodobieństw etykiet, ale raczej jedną etykietę na wiersz funkcji. Zakłada się, że ta etykieta ma prawdopodobieństwo 1,0 dla danego wiersza.

Dane wejściowe to logity, a nie prawdopodobieństwa.

Argumenty:

  • zakres: obiekt Scope
  • cechy: batch_size x num_classes matrix
  • etykiety: wektor batch_size z wartościami w [0, num_classes). To jest etykieta dla danego wpisu minibatchu.

Zwroty:

  • Output strata: przykład utrata Per (batch_size wektor).
  • Backprop Output : gradienty propagowane wstecznie (macierz batch_size x num_classes).

Konstruktorzy i niszczyciele

SparseSoftmaxCrossEntropyWithLogits (const :: tensorflow::Scope & scope, :: tensorflow::Input features, :: tensorflow::Input labels)

Atrybuty publiczne

backprop
loss
operation

Atrybuty publiczne

Backprop

::tensorflow::Output backprop

utrata

::tensorflow::Output loss

operacja

Operation operation

Funkcje publiczne

SparseSoftmaxCrossEntropyWithLogits

 SparseSoftmaxCrossEntropyWithLogits(
  const ::tensorflow::Scope & scope,
  ::tensorflow::Input features,
  ::tensorflow::Input labels
)