Restez organisé à l'aide des collections Enregistrez et classez les contenus selon vos préférences.

flux tenseur :: opérations :: SparseSoftmaxCrossEntropyWithLogits

#include <nn_ops.h>

Calcule le coût d'entropie croisée softmax et les gradients à rétropropager.

Sommaire

Contrairement à SoftmaxCrossEntropyWithLogits , cette opération n'accepte pas une matrice de probabilités d'étiquettes, mais plutôt une seule étiquette par ligne d'entités. Cette étiquette est considérée comme ayant une probabilité de 1,0 pour la ligne donnée.

Les entrées sont les logits, pas les probabilités.

Arguments:

  • scope : un objet Scope
  • fonctionnalités : matrice batch_size x num_classes
  • étiquettes : vecteur batch_size avec des valeurs dans [0, num_classes). Il s'agit de l'étiquette de l'entrée de mini-lot donnée.

Retour:

  • Perte de Output : Par exemple, perte (vecteur batch_size).
  • Backprop de Output : gradients rétropropagés (matrice batch_size x num_classes).

Constructeurs et destructeurs

SparseSoftmaxCrossEntropyWithLogits (const :: tensorflow::Scope & scope, :: tensorflow::Input features, :: tensorflow::Input labels)

Attributs publics

backprop
loss
operation

Attributs publics

support arrière

::tensorflow::Output backprop

perte

::tensorflow::Output loss

opération

Operation operation

Fonctions publiques

SparseSoftmaxCrossEntropyWithLogits

 SparseSoftmaxCrossEntropyWithLogits(
  const ::tensorflow::Scope & scope,
  ::tensorflow::Input features,
  ::tensorflow::Input labels
)