SelfAdjointEig

सार्वजनिक अंतिम वर्ग SelfAdjointEig

स्व-सहायक मैट्रिक्स के एक बैच के ईजेन अपघटन की गणना करता है

(नोट: केवल वास्तविक इनपुट ही समर्थित हैं)।

टेंसर में अंतरतम एन-बाय-एन मैट्रिक्स के आइगेनवैल्यू और आइजेनवेक्टर की गणना इस प्रकार करता है कि टेंसर[...,:,:] * वी[..., :,आई] = ई[..., आई] * वी [...,:,i], i=0...N-1 के लिए।

स्थिरांक

डोरी OP_NAME इस ऑप का नाम, जैसा कि TensorFlow कोर इंजन द्वारा जाना जाता है

सार्वजनिक तरीके

स्थैतिक <T टीटाइप का विस्तार करता है > SelfAdjointEig <T>
बनाएं ( स्कोप स्कोप, ऑपरेंड <टी> ए, बूलियन लोअर, लॉन्ग मैक्सइटर, फ्लोट एप्सिलॉन)
एक नया SelfAdjointEig ऑपरेशन लपेटकर एक क्लास बनाने की फ़ैक्टरी विधि।
आउटपुट <T>
वी ()
स्तंभ v[..., :, i] eigenvalue w[..., i] के अनुरूप सामान्यीकृत eigenvector है।
आउटपुट <T>
डब्ल्यू ()
आरोही क्रम में eigenvalues, प्रत्येक को उसकी बहुलता के अनुसार दोहराया जाता है।

विरासत में मिली विधियाँ

स्थिरांक

सार्वजनिक स्थैतिक अंतिम स्ट्रिंग OP_NAME

इस ऑप का नाम, जैसा कि TensorFlow कोर इंजन द्वारा जाना जाता है

स्थिर मान: "XlaSelfAdjointEig"

सार्वजनिक तरीके

सार्वजनिक स्थैतिक SelfAdjointEig <T> बनाएं ( स्कोप स्कोप, ऑपरेंड <T> a, बूलियन लोअर, लॉन्ग मैक्सइटर, फ्लोट एप्सिलॉन)

एक नया SelfAdjointEig ऑपरेशन लपेटकर एक क्लास बनाने की फ़ैक्टरी विधि।

पैरामीटर
दायरा वर्तमान दायरा
इनपुट टेंसर.
निचला बूलियन निर्दिष्ट करता है कि गणना निचले त्रिकोणीय भाग से की गई है या ऊपरी त्रिकोणीय भाग से।
मैक्सइटर स्वीप अपडेट की अधिकतम संख्या, यानी, पूरे निचले त्रिकोणीय भाग या निचले पैरामीटर के आधार पर ऊपरी त्रिकोणीय भाग। अनुमानतः, यह तर्क दिया गया है कि व्यवहार में लगभग लॉगएन स्वीप की आवश्यकता होती है (संदर्भ: गोलूब और वैन लोन "मैट्रिक्स कंप्यूटेशन")।
एप्सिलॉन सहनशीलता अनुपात.
रिटर्न
  • SelfAdjointEig का एक नया उदाहरण

सार्वजनिक आउटपुट <टी> वी ()

स्तंभ v[..., :, i] eigenvalue w[..., i] के अनुरूप सामान्यीकृत eigenvector है।

सार्वजनिक आउटपुट <T> w ()

आरोही क्रम में eigenvalues, प्रत्येक को उसकी बहुलता के अनुसार दोहराया जाता है।