चेतावनी: इस एपीआई को पदावनत कर दिया गया है और प्रतिस्थापन के स्थिर होने के बाद इसे TensorFlow के भविष्य के संस्करण में हटा दिया जाएगा।

QuantizedMatMulWithBias

सार्वजनिक अंतिम वर्ग QuantizedMatMulWithBias

बायस ऐड के साथ मैट्रिक्स `b` द्वारा `a` का परिमाणित मैट्रिक्स गुणन करता है।

इनपुट दो-आयामी मैट्रिसेस और 1D बायस वेक्टर होने चाहिए। और `a` का आंतरिक आयाम (स्थानांतरित होने के बाद यदि `transpose_a` गैर-शून्य है) को `b` के बाहरी आयाम से मेल खाना चाहिए (यदि `transpose_b` गैर-शून्य है तो स्थानांतरित होने के बाद)। फिर मैट्रिक्स गुणन परिणाम पर पूर्वाग्रह मानों के साथ ब्रॉडकास्ट ऐड ऑपरेशन करें। पूर्वाग्रह का आकार `बी` के आंतरिक आयाम से मेल खाना चाहिए।

नेस्टेड कक्षाएं

कक्षा QuantizedMatMulWithBias.Options के लिए वैकल्पिक विशेषताओं QuantizedMatMulWithBias

सार्वजनिक तरीके

स्थिर <डब्ल्यू, टी, यू, वी> QuantizedMatMulWithBias <डब्ल्यू>
बनाने ( स्कोप गुंजाइश, ओपेरैंड <टी> एक, ओपेरैंड <u> ख, ओपेरैंड <वी> पूर्वाग्रह, ओपेरैंड <फ्लोट> मीना, ओपेरैंड <फ्लोट> Maxa, ओपेरैंड <फ्लोट> minB, ओपेरैंड <फ्लोट> maxB, कक्षा <डब्ल्यू > Toutput, विकल्प ... विकल्प)
एक नया QuantizedMatMulWithBias ऑपरेशन रैपिंग क्लास बनाने के लिए फ़ैक्टरी विधि।
स्थिर QuantizedMatMulWithBias.Options
inputQuantMode (स्ट्रिंग inputQuantMode)
आउटपुट <फ्लोट>
maxOut ()
फ़्लोट मान जो उच्चतम परिमाणित आउटपुट मान का प्रतिनिधित्व करता है।
आउटपुट <फ्लोट>
minOut ()
फ्लोट वैल्यू जो सबसे कम मात्रा में आउटपुट वैल्यू का प्रतिनिधित्व करती है।
आउटपुट <डब्ल्यू>
स्थिर QuantizedMatMulWithBias.Options
transposeA (बूलियन transposeA)
स्थिर QuantizedMatMulWithBias.Options
transposeB (बूलियन transposeB)

विरासत में मिली विधियां

सार्वजनिक तरीके

सार्वजनिक स्थिर QuantizedMatMulWithBias <डब्ल्यू> (बनाने स्कोप गुंजाइश, ओपेरैंड <टी> एक, ओपेरैंड <u> ख, ओपेरैंड <वी> पूर्वाग्रह, ओपेरैंड <फ्लोट> मीना, ओपेरैंड <फ्लोट> Maxa, ओपेरैंड <फ्लोट> minB, ओपेरैंड <फ्लोट > maxB, कक्षा <डब्ल्यू> Toutput, विकल्प ... विकल्प)

एक नया QuantizedMatMulWithBias ऑपरेशन रैपिंग क्लास बनाने के लिए फ़ैक्टरी विधि।

मापदंडों
दायरा वर्तमान दायरा
गुणा करने के लिए एक मैट्रिक्स। `quint8` प्रकार का द्वि-आयामी टेंसर होना चाहिए।
बी गुणा करने के लिए एक मैट्रिक्स और `qint8` प्रकार का द्वि-आयामी टेंसर होना चाहिए।
पक्षपात एक 1D बायस टेंसर जिसका आकार `b` के आंतरिक आयाम से मेल खाता है (ट्रांसपोज़ किए जाने के बाद यदि `transposed_b` गैर-शून्य है)।
मिनए फ़्लोट मान जो सबसे कम परिमाणित `a` मान दर्शाता है।
मैक्सए फ़्लोट मान जो उच्चतम परिमाणित `a` मान दर्शाता है।
मिनबी फ़्लोट मान जो सबसे कम परिमाणित `b` मान दर्शाता है।
मैक्सबी फ़्लोट मान जो उच्चतम परिमाणित `b` मान दर्शाता है।
विकल्प वैकल्पिक विशेषता मान रखता है
रिटर्न
  • QuantizedMatMulWithBias का एक नया उदाहरण

सार्वजनिक स्थिर QuantizedMatMulWithBias.Options inputQuantMode (स्ट्रिंग inputQuantMode)

मापदंडों
इनपुटक्वांटमोड इनपुट डेटा परिमाणीकरण मोड। या तो MIN_FIRST (डिफ़ॉल्ट) या स्केल किया गया।

सार्वजनिक आउटपुट <फ्लोट> maxOut ()

फ़्लोट मान जो उच्चतम परिमाणित आउटपुट मान का प्रतिनिधित्व करता है।

सार्वजनिक आउटपुट <फ्लोट> minOut ()

फ्लोट वैल्यू जो सबसे कम मात्रा में आउटपुट वैल्यू का प्रतिनिधित्व करती है।

सार्वजनिक आउटपुट <डब्ल्यू> बाहर ()

सार्वजनिक स्थिर QuantizedMatMulWithBias.Options transposeA (बूलियन transposeA)

मापदंडों
ट्रांसपोज़ ए यदि सत्य है, तो `a` गुणन से पहले स्थानांतरित कर दिया जाता है।

सार्वजनिक स्थिर QuantizedMatMulWithBias.Options transposeB (बूलियन transposeB)

मापदंडों
स्थानान्तरणबी यदि सत्य है, तो `b` गुणन से पहले स्थानांतरित कर दिया जाता है।