Google I/O एक लपेट है! TensorFlow सत्रों पर पकड़ बनाएं सत्र देखें

टेंसरफ़्लो :: ऑप्स :: SparseSoftmaxCrossEntropyWithLogits

#include <nn_ops.h>

सॉफ्टमैक्स क्रॉस एन्ट्रापी लागत और बैकप्रोपगेट के ग्रेडिएंट्स को पार करता है।

सारांश

SoftmaxCrossEntropyWithLogits विपरीत, यह ऑपरेशन लेबल संभावनाओं के एक मैट्रिक्स को स्वीकार नहीं करता है, बल्कि सुविधाओं के प्रति एकल लेबल। इस लेबल को दी गई पंक्ति के लिए प्रायिकता 1.0 माना जाता है।

इनपुट लॉगिट हैं, संभाव्यता नहीं।

तर्क:

  • गुंजाइश: एक स्कोप ऑब्जेक्ट
  • विशेषताएं: batch_size x num_classes मैट्रिक्स
  • लेबल: [0, num_classes) में मानों के साथ बैच_साइज़ वेक्टर। यह दिए गए मिनीबैच प्रविष्टि के लिए लेबल है।

रिटर्न:

  • Output हानि: प्रति उदाहरण हानि (बैच_साइज़ वेक्टर)।
  • Output बैकप्रॉप: बैकप्रोगैगेड ग्रेडिएंट्स (बैच_साइज x संख्या_क्लासेस मैट्रिक्स)।

कंस्ट्रक्टर और डिस्ट्रक्टर्स

SparseSoftmaxCrossEntropyWithLogits (const :: tensorflow::Scope & scope, :: tensorflow::Input features, :: tensorflow::Input labels)

सार्वजनिक विशेषताएँ

backprop
loss
operation

सार्वजनिक विशेषताएँ

बैकप्रॉप

::tensorflow::Output backprop

हानि

::tensorflow::Output loss

ऑपरेशन

Operation operation

सार्वजनिक कार्य

SparseSoftmaxCrossEntropyWithLogits

 SparseSoftmaxCrossEntropyWithLogits(
  const ::tensorflow::Scope & scope,
  ::tensorflow::Input features,
  ::tensorflow::Input labels
)