SoftmaxCrossEntropyWithLogits

classe finale pubblica SoftmaxCrossEntropyWithLogits

Calcola il costo dell'entropia incrociata softmax e i gradienti per la propagazione all'indietro.

Gli input sono i logit, non le probabilità.

Costanti

Corda OP_NAME Il nome di questa operazione, come noto al motore principale di TensorFlow

Metodi pubblici

Uscita <T>
sostegno ()
gradienti retropropagati (matrice batch_size x num_classes).
statico <T estende TNumber > SoftmaxCrossEntropyWithLogits <T>
create (ambito dell'ambito , funzionalità dell'operando <T>, etichette dell'operando <T>)
Metodo factory per creare una classe che racchiude una nuova operazione SoftmaxCrossEntropyWithLogits.
Uscita <T>
perdita ()
Perdita per esempio (vettore batch_size).

Metodi ereditati

Costanti

Stringa finale statica pubblica OP_NAME

Il nome di questa operazione, come noto al motore principale di TensorFlow

Valore costante: "SoftmaxCrossEntropyWithLogits"

Metodi pubblici

output pubblico <T> backprop ()

gradienti retropropagati (matrice batch_size x num_classes).

creazione statica pubblica SoftmaxCrossEntropyWithLogits <T> (ambito dell'ambito , funzionalità dell'operando <T>, etichette dell'operando <T>)

Metodo factory per creare una classe che racchiude una nuova operazione SoftmaxCrossEntropyWithLogits.

Parametri
scopo ambito attuale
caratteristiche matrice batch_size x num_classes
etichette matrice batch_size x num_classes Il chiamante deve garantire che ogni batch di etichette rappresenti una distribuzione di probabilità valida.
ritorna
  • una nuova istanza di SoftmaxCrossEntropyWithLogits

Uscita pubblica <T> perdita ()

Perdita per esempio (vettore batch_size).