SparseSoftmaxCrossEntropyWithLogits

सार्वजनिक वर्ग SparseSoftmaxCrossEntropyWithLogits

सार्वजनिक निर्माता

सार्वजनिक तरीके

स्थिर <T TNumber बढ़ाता है, U TNumber > ऑपरेंड बढ़ाता है
sparseSoftmaxCrossEntropyWithLogits ( स्कोप स्कोप, ऑपरेंड <T> लेबल, ऑपरेंड <U> लॉगिट्स)
logits और labels के बीच विरल सॉफ्टमैक्स क्रॉस एन्ट्रापी की गणना करता है।

विरासत में मिली विधियाँ

सार्वजनिक निर्माता

सार्वजनिक SparseSoftmaxCrossEntropyWithLogits ()

सार्वजनिक तरीके

सार्वजनिक स्थैतिक ऑपरेंड स्पार्ससॉफ्टमैक्सक्रॉसएंट्रॉपीविथलॉगिट्स ( स्कोप स्कोप, ऑपरेंड <टी> लेबल, ऑपरेंड <यू> लॉगिट्स)

logits और labels के बीच विरल सॉफ्टमैक्स क्रॉस एन्ट्रापी की गणना करता है।

असतत वर्गीकरण कार्यों में संभाव्यता त्रुटि को मापता है जिसमें वर्ग परस्पर अनन्य होते हैं (प्रत्येक प्रविष्टि बिल्कुल एक वर्ग में होती है)। उदाहरण के लिए, प्रत्येक CIFAR-10 छवि को एक और केवल एक लेबल के साथ लेबल किया गया है: एक छवि एक कुत्ता या ट्रक हो सकती है, लेकिन दोनों नहीं।

टिप्पणी:

इस ऑपरेशन के लिए, किसी दिए गए लेबल की संभावना को विशिष्ट माना जाता है। अर्थात्, सॉफ्ट क्लास की अनुमति नहीं है, और labels वेक्टर को logits की प्रत्येक पंक्ति (प्रत्येक मिनीबैच प्रविष्टि) के लिए वास्तविक क्लास के लिए एक एकल विशिष्ट सूचकांक प्रदान करना होगा। प्रत्येक प्रविष्टि के लिए संभाव्यता वितरण के साथ सॉफ्ट सॉफ्टमैक्स वर्गीकरण के लिए, ERROR(/org.tensorflow.op.NnOps#softmaxCrossEntropyWithLogits)

चेतावनी:

यह ऑप अनस्केल्ड लॉग की अपेक्षा करता है, क्योंकि यह दक्षता के लिए आंतरिक रूप से logits पर softmax निष्पादित करता है। इस ऑप को softmax के आउटपुट के साथ कॉल न करें, क्योंकि यह गलत परिणाम देगा।

एक सामान्य उपयोग के मामले में आकार के लॉगिट होते हैं [batchSize, numClasses] और आकार के लेबल होते हैं [batchSize] , लेकिन उच्च आयाम समर्थित हैं, जिस स्थिति में dim -वें आयाम को numClasses आकार का माना जाता है। logits पास होना चाहिए डेटा प्रकार TFloat16 , TFloat32 , या TFloat64 , और labels TInt32 या TInt64 का dtype होना चाहिए।

पैरामीटर
दायरा वर्तमान दायरा
लेबल आकार का Tensor [d_0, d_1, ..., d_{r-1}] (जहाँ r labels और परिणाम की रैंक है) और डेटा प्रकार TInt32 या TInt64 है। labels में प्रत्येक प्रविष्टि [0, numClasses) में एक अनुक्रमणिका होनी चाहिए। जब यह ऑप सीपीयू पर चलाया जाता है तो अन्य मान एक अपवाद उठाएंगे, और जीपीयू पर संबंधित हानि और ग्रेडिएंट पंक्तियों के लिए NaN लौटाएंगे।
logits आकार के प्रति-लेबल सक्रियण (आमतौर पर एक रैखिक आउटपुट) [d_0, d_1, ..., d_{r-1}, numClasses] और TFloat16 , TFloat32 , या TFloat64 का डेटा प्रकार। इन सक्रियण ऊर्जाओं की व्याख्या असामान्य लॉग संभावनाओं के रूप में की जाती है।
रिटर्न
  • labels के समान आकार का और सॉफ्टमैक्स क्रॉस एन्ट्रॉपी हानि के साथ logits के समान प्रकार का एक Tensor
फेंकता
अवैध तर्क अपवाद यदि लॉग स्केलर हैं (रैंक> = 1 की आवश्यकता है) या यदि लेबल की रैंक लॉग की रैंक शून्य से एक के बराबर नहीं है।