Eine Frage haben? Verbinden Sie sich mit der Community im TensorFlow Forum Visit Forum

Tensorflow :: ops :: SparseSoftmaxCrossEntropyWithLogits

#include <nn_ops.h>

Berechnet die Softmax-Kreuzentropiekosten und -gradienten für die Rückausbreitung.

Zusammenfassung

Im Gegensatz zu SoftmaxCrossEntropyWithLogits akzeptiert diese Operation keine Matrix von Beschriftungswahrscheinlichkeiten, sondern eine einzelne Beschriftung pro Reihe von Features. Es wird angenommen, dass diese Bezeichnung für die angegebene Zeile eine Wahrscheinlichkeit von 1,0 hat.

Eingaben sind die Protokolle, keine Wahrscheinlichkeiten.

Argumente:

  • scope: Ein Scope- Objekt
  • Features: batch_size x num_classes Matrix
  • label: batch_size vector mit Werten in [0, num_classes]. Dies ist die Bezeichnung für den angegebenen Minibatch-Eintrag.

Kehrt zurück:

  • Output Per Beispiel Verlust (batch_size Vektor).
  • Output backprop: backpropagierte Gradienten (batch_size x num_classes Matrix).

Konstruktoren und Destruktoren

SparseSoftmaxCrossEntropyWithLogits (const :: tensorflow::Scope & scope, :: tensorflow::Input features, :: tensorflow::Input labels)

Öffentliche Attribute

backprop
loss
operation

Öffentliche Attribute

backprop

::tensorflow::Output backprop

Verlust

::tensorflow::Output loss

Operation

Operation operation

Öffentliche Funktionen

SparseSoftmaxCrossEntropyWithLogits

 SparseSoftmaxCrossEntropyWithLogits(
  const ::tensorflow::Scope & scope,
  ::tensorflow::Input features,
  ::tensorflow::Input labels
)