Se usó la API de Cloud Translation para traducir esta página.
Switch to English

tensorflow :: operaciones :: SoftmaxCrossEntropyWithLogits

#include <nn_ops.h>

Calcula el costo de la entropía cruzada de Softmax y los gradientes para propagar hacia atrás.

Resumen

Las entradas son los logits, no las probabilidades.

Argumentos:

  • alcance: un objeto de alcance
  • características: tamaño de lote x matriz num_classes
  • etiquetas: tamaño_lote x matriz num_clases La persona que llama debe asegurarse de que cada lote de etiquetas represente una distribución de probabilidad válida.

Devoluciones:

  • Pérdida de Output : Por ejemplo, pérdida (vector batch_size).
  • Backprop de Output : gradientes retropropagados (batch_size x num_classes matrix).

Constructores y Destructores

SoftmaxCrossEntropyWithLogits (const :: tensorflow::Scope & scope, :: tensorflow::Input features, :: tensorflow::Input labels)

Atributos públicos

backprop
loss
operation

Atributos públicos

backprop

::tensorflow::Output backprop

pérdida

::tensorflow::Output loss

operación

Operation operation

Funciones publicas

SoftmaxCrossEntropyWithLogits

 SoftmaxCrossEntropyWithLogits(
  const ::tensorflow::Scope & scope,
  ::tensorflow::Input features,
  ::tensorflow::Input labels
)