Questa pagina è stata tradotta dall'API Cloud Translation.
Switch to English

tensorflow :: ops :: SparseSoftmaxCrossEntropyWithLogits

#include <nn_ops.h>

Calcola il costo di entropia incrociata softmax e i gradienti da propagare.

Sommario

A differenza di SoftmaxCrossEntropyWithLogits , questa operazione non accetta una matrice di probabilità di etichetta, ma piuttosto una singola etichetta per riga di caratteristiche. Si ritiene che questa etichetta abbia probabilità 1.0 per la riga data.

Gli input sono i logit, non le probabilità.

Argomenti:

  • scope: un oggetto Scope
  • caratteristiche: batch_size x matrice num_classes
  • etichette: vettore batch_size con valori in [0, num_classes). Questa è l'etichetta per la voce del minibatch specificato.

Ritorna:

  • Perdita di Output : perdita per esempio (batch_size vettore).
  • Output backprop: gradienti retropropagati (matrice batch_size x num_classes).

Costruttori e distruttori

SparseSoftmaxCrossEntropyWithLogits (const :: tensorflow::Scope & scope, :: tensorflow::Input features, :: tensorflow::Input labels)

Attributi pubblici

backprop
loss
operation

Attributi pubblici

backprop

::tensorflow::Output backprop

perdita

::tensorflow::Output loss

operazione

Operation operation

Funzioni pubbliche

SparseSoftmaxCrossEntropyWithLogits

 SparseSoftmaxCrossEntropyWithLogits(
  const ::tensorflow::Scope & scope,
  ::tensorflow::Input features,
  ::tensorflow::Input labels
)