Se usó la API de Cloud Translation para traducir esta página.
Switch to English

tensorflow :: operaciones :: SparseSoftmaxCrossEntropyWithLogits

#include <nn_ops.h>

Calcula el costo de la entropía cruzada de Softmax y los gradientes para propagar hacia atrás.

Resumen

A diferencia de SoftmaxCrossEntropyWithLogits , esta operación no acepta una matriz de probabilidades de etiqueta, sino una sola etiqueta por fila de características. Se considera que esta etiqueta tiene una probabilidad de 1.0 para la fila dada.

Las entradas son los logits, no las probabilidades.

Argumentos:

  • alcance: un objeto de alcance
  • características: tamaño de lote x matriz num_classes
  • etiquetas: vector batch_size con valores en [0, num_classes). Esta es la etiqueta para la entrada de minibatch dada.

Devoluciones:

  • Pérdida de Output : Por ejemplo, pérdida (vector batch_size).
  • Backprop de Output : gradientes retropropagados (batch_size x num_classes matrix).

Constructores y Destructores

SparseSoftmaxCrossEntropyWithLogits (const :: tensorflow::Scope & scope, :: tensorflow::Input features, :: tensorflow::Input labels)

Atributos públicos

backprop
loss
operation

Atributos públicos

backprop

::tensorflow::Output backprop

perdida

::tensorflow::Output loss

operación

Operation operation

Funciones publicas

SparseSoftmaxCrossEntropyWithLogits

 SparseSoftmaxCrossEntropyWithLogits(
  const ::tensorflow::Scope & scope,
  ::tensorflow::Input features,
  ::tensorflow::Input labels
)