flux tensoriel : : opérations : : SparseSoftmaxCrossEntropyWithLogits

#include <nn_ops.h>

Calcule le coût d'entropie croisée softmax et les gradients à rétropropager.

Résumé

Contrairement à SoftmaxCrossEntropyWithLogits , cette opération n'accepte pas une matrice de probabilités d'étiquettes, mais plutôt une seule étiquette par ligne de fonctionnalités. Cette étiquette est considérée comme ayant une probabilité de 1,0 pour la ligne donnée.

Les entrées sont les logits, pas les probabilités.

Arguments:

  • scope : un objet Scope
  • fonctionnalités : matrice batch_size x num_classes
  • labels : vecteur batch_size avec des valeurs dans [0, num_classes). Il s'agit de l'étiquette de l'entrée de mini-lot donnée.

Retour:

  • Perte Output : perte par exemple (vecteur batch_size).
  • Backprop Output : dégradés rétropropagés (matrice batch_size x num_classes).

Constructeurs et Destructeurs

SparseSoftmaxCrossEntropyWithLogits (const :: tensorflow::Scope & scope, :: tensorflow::Input features, :: tensorflow::Input labels)

Attributs publics

backprop
loss
operation

Attributs publics

arrière-plan

::tensorflow::Output backprop

perte

::tensorflow::Output loss

opération

Operation operation

Fonctions publiques

SparseSoftmaxCrossEntropyWithLogits

 SparseSoftmaxCrossEntropyWithLogits(
  const ::tensorflow::Scope & scope,
  ::tensorflow::Input features,
  ::tensorflow::Input labels
)