flux tenseur :: opérations :: SparseSoftmaxCrossEntropyWithLogits
#include <nn_ops.h>
Calcule le coût d'entropie croisée softmax et les gradients à rétropropager.
Sommaire
Contrairement à SoftmaxCrossEntropyWithLogits
, cette opération n'accepte pas une matrice de probabilités d'étiquettes, mais plutôt une seule étiquette par ligne d'entités. Cette étiquette est considérée comme ayant une probabilité de 1,0 pour la ligne donnée.
Les entrées sont les logits, pas les probabilités.
Arguments:
- scope : un objet Scope
- fonctionnalités : matrice batch_size x num_classes
- étiquettes : vecteur batch_size avec des valeurs dans [0, num_classes). Il s'agit de l'étiquette de l'entrée de mini-lot donnée.
Retour:
- Perte de
Output
: Par exemple, perte (vecteur batch_size). - Backprop de
Output
: gradients rétropropagés (matrice batch_size x num_classes).
Constructeurs et destructeurs | |
---|---|
SparseSoftmaxCrossEntropyWithLogits (const :: tensorflow::Scope & scope, :: tensorflow::Input features, :: tensorflow::Input labels) |
Attributs publics | |
---|---|
backprop | |
loss | |
operation |
Attributs publics
support arrière
::tensorflow::Output backprop
perte
::tensorflow::Output loss
opération
Operation operation
Fonctions publiques
SparseSoftmaxCrossEntropyWithLogits
SparseSoftmaxCrossEntropyWithLogits( const ::tensorflow::Scope & scope, ::tensorflow::Input features, ::tensorflow::Input labels )