Restez organisé à l'aide des collections Enregistrez et classez les contenus selon vos préférences.

tensorflow :: opérations :: SoftmaxCrossEntropyWithLogits

#include <nn_ops.h>

Calcule le coût de l'entropie croisée softmax et les gradients à rétropropagation.

Résumé

Les entrées sont les logits, pas les probabilités.

Arguments:

  • scope: un objet Scope
  • caractéristiques: matrice batch_size x num_classes
  • labels: batch_size x num_classes matrix L'appelant doit s'assurer que chaque lot d'étiquettes représente une distribution de probabilité valide.

Retour:

  • Perte de Output : Par exemple de perte (vecteur batch_size).
  • Backprop de Output : dégradés rétropropagés (matrice batch_size x num_classes).

Constructeurs et destructeurs

SoftmaxCrossEntropyWithLogits (const :: tensorflow::Scope & scope, :: tensorflow::Input features, :: tensorflow::Input labels)

Attributs publics

backprop
loss
operation

Attributs publics

backprop

::tensorflow::Output backprop

perte

::tensorflow::Output loss

opération

Operation operation

Fonctions publiques

SoftmaxCrossEntropyWithLogits

 SoftmaxCrossEntropyWithLogits(
  const ::tensorflow::Scope & scope,
  ::tensorflow::Input features,
  ::tensorflow::Input labels
)