Merken Sie den Termin vor! Google I / O kehrt vom 18. bis 20. Mai zurück Registrieren Sie sich jetzt
Diese Seite wurde von der Cloud Translation API übersetzt.
Switch to English

Tensorflow :: ops :: SoftmaxCrossEntropyWithLogits

#include <nn_ops.h>

Berechnet die Softmax-Kreuzentropiekosten und -gradienten für die Rückausbreitung.

Zusammenfassung

Eingaben sind die Protokolle, keine Wahrscheinlichkeiten.

Argumente:

  • scope: Ein Scope- Objekt
  • Features: batch_size x num_classes Matrix
  • label: batch_size x num_classes matrix Der Aufrufer muss sicherstellen, dass jeder Stapel von Labels eine gültige Wahrscheinlichkeitsverteilung darstellt.

Kehrt zurück:

  • Output Per Beispiel Verlust (batch_size Vektor).
  • Output backprop: backpropagierte Gradienten (batch_size x num_classes Matrix).

Konstruktoren und Destruktoren

SoftmaxCrossEntropyWithLogits (const :: tensorflow::Scope & scope, :: tensorflow::Input features, :: tensorflow::Input labels)

Öffentliche Attribute

backprop
loss
operation

Öffentliche Attribute

backprop

::tensorflow::Output backprop

Verlust

::tensorflow::Output loss

Operation

Operation operation

Öffentliche Funktionen

SoftmaxCrossEntropyWithLogits

 SoftmaxCrossEntropyWithLogits(
  const ::tensorflow::Scope & scope,
  ::tensorflow::Input features,
  ::tensorflow::Input labels
)