Aide à protéger la Grande barrière de corail avec tensorflow sur Kaggle Rejoignez Défi

tensorflow :: opérations :: SparseSoftmaxCrossEntropyWithLogits

#include <nn_ops.h>

Calcule le coût de l'entropie croisée softmax et les gradients pour la rétropropagation.

Résumé

Contrairement à SoftmaxCrossEntropyWithLogits , cette opération n'accepte pas une matrice de probabilités d'étiquette, mais plutôt une seule étiquette par ligne d'entités. Cette étiquette est considérée comme ayant une probabilité de 1,0 pour la ligne donnée.

Les entrées sont les logits, pas les probabilités.

Arguments:

  • scope: un objet Scope
  • caractéristiques: matrice batch_size x num_classes
  • labels: vecteur batch_size avec des valeurs dans [0, num_classes). Il s'agit de l'étiquette de l'entrée de mini-lot donnée.

Retour:

  • Perte de Output : Par exemple de perte (vecteur batch_size).
  • Backprop de Output : dégradés rétropropagés (matrice batch_size x num_classes).

Constructeurs et destructeurs

SparseSoftmaxCrossEntropyWithLogits (const :: tensorflow::Scope & scope, :: tensorflow::Input features, :: tensorflow::Input labels)

Attributs publics

backprop
loss
operation

Attributs publics

backprop

::tensorflow::Output backprop

perte

::tensorflow::Output loss

opération

Operation operation

Fonctions publiques

SparseSoftmaxCrossEntropyWithLogits

 SparseSoftmaxCrossEntropyWithLogits(
  const ::tensorflow::Scope & scope,
  ::tensorflow::Input features,
  ::tensorflow::Input labels
)