SparseApplyAdadelta

सार्वजनिक अंतिम वर्ग SparseApplyAdadelta

var: एक वेरिएबल() से होना चाहिए।

नेस्टेड क्लासेस

कक्षा SparseApplyAddelta.विकल्प SparseApplyAdadelta के लिए वैकल्पिक विशेषताएँ

स्थिरांक

डोरी OP_NAME इस ऑप का नाम, जैसा कि TensorFlow कोर इंजन द्वारा जाना जाता है

सार्वजनिक तरीके

आउटपुट <T>
आउटपुट के रूप में ()
टेंसर का प्रतीकात्मक हैंडल लौटाता है।
स्थिर <T टीटाइप का विस्तार करता है > SparseApplyAdadelta <T>
बनाएँ ( स्कोप स्कोप, ऑपरेंड <T> var, ऑपरेंड <T> Accum, ऑपरेंड <T> AccumUpdate, ऑपरेंड <T> lr, ऑपरेंड <T> rho, ऑपरेंड <T> एप्सिलॉन, ऑपरेंड <T> ग्रेड, ऑपरेंड <? TNumber > सूचकांक, विकल्प... विकल्प बढ़ाता है)
एक नए SparseApplyAdadelta ऑपरेशन को लपेटकर एक क्लास बनाने की फ़ैक्टरी विधि।
आउटपुट <T>
बाहर ()
"var" के समान।
स्थिर SparseApplyAdadelta.Options
यूज़लॉकिंग (बूलियन यूज़लॉकिंग)

विरासत में मिली विधियाँ

स्थिरांक

सार्वजनिक स्थैतिक अंतिम स्ट्रिंग OP_NAME

इस ऑप का नाम, जैसा कि TensorFlow कोर इंजन द्वारा जाना जाता है

स्थिर मान: "SparseApplyAdadelta"

सार्वजनिक तरीके

सार्वजनिक आउटपुट <T> asOutput ()

टेंसर का प्रतीकात्मक हैंडल लौटाता है।

TensorFlow संचालन के इनपुट किसी अन्य TensorFlow ऑपरेशन के आउटपुट हैं। इस पद्धति का उपयोग एक प्रतीकात्मक हैंडल प्राप्त करने के लिए किया जाता है जो इनपुट की गणना का प्रतिनिधित्व करता है।

सार्वजनिक स्थैतिक SparseApplyAdadelta <T> बनाएं ( स्कोप स्कोप, ऑपरेंड <T> var, ऑपरेंड <T> जमा, ऑपरेंड <T> जमा अद्यतन, ऑपरेंड <T> lr, ऑपरेंड <T> rho, ऑपरेंड <T> एप्सिलॉन, ऑपरेंड <T > ग्रेड, ऑपरेंड <? एक्सटेंड्स टीएनंबर > सूचकांक, विकल्प... विकल्प)

एक नए SparseApplyAdadelta ऑपरेशन को लपेटकर एक क्लास बनाने की फ़ैक्टरी विधि।

पैरामीटर
दायरा वर्तमान दायरा
जमा एक वेरिएबल() से होना चाहिए।
संचित अद्यतन : एक वेरिएबल() से होना चाहिए।
एलआर सीखने की दर। एक अदिश राशि होनी चाहिए.
रो क्षय कारक. एक अदिश राशि होनी चाहिए.
एप्सिलॉन निरंतर कारक. एक अदिश राशि होनी चाहिए.
ग्रैड ढाल.
सूचकांक var और accum के पहले आयाम में सूचकांकों का एक वेक्टर।
विकल्प वैकल्पिक गुण मान रखता है
रिटर्न
  • SparseApplyAdadelta का एक नया उदाहरण

सार्वजनिक आउटपुट <T> आउट ()

"var" के समान।

सार्वजनिक स्थैतिक SparseApplyAdadelta.ऑप्शंस यूज़लॉकिंग (बूलियन यूज़लॉकिंग)

पैरामीटर
लॉकिंग का उपयोग करें यदि सत्य है, तो var और Accum Tensors का अद्यतनीकरण एक लॉक द्वारा सुरक्षित किया जाएगा; अन्यथा व्यवहार अपरिभाषित है, लेकिन कम विवाद प्रदर्शित कर सकता है।
,
सार्वजनिक अंतिम वर्ग SparseApplyAdadelta

var: एक वेरिएबल() से होना चाहिए।

नेस्टेड क्लासेस

कक्षा SparseApplyAddelta.विकल्प SparseApplyAdadelta के लिए वैकल्पिक विशेषताएँ

स्थिरांक

डोरी OP_NAME इस ऑप का नाम, जैसा कि TensorFlow कोर इंजन द्वारा जाना जाता है

सार्वजनिक तरीके

आउटपुट <T>
आउटपुट के रूप में ()
टेंसर का प्रतीकात्मक हैंडल लौटाता है।
स्थिर <T टीटाइप का विस्तार करता है > SparseApplyAdadelta <T>
बनाएँ ( स्कोप स्कोप, ऑपरेंड <T> var, ऑपरेंड <T> Accum, ऑपरेंड <T> AccumUpdate, ऑपरेंड <T> lr, ऑपरेंड <T> rho, ऑपरेंड <T> एप्सिलॉन, ऑपरेंड <T> ग्रेड, ऑपरेंड <? TNumber > सूचकांक, विकल्प... विकल्प बढ़ाता है)
एक नए SparseApplyAdadelta ऑपरेशन को लपेटकर एक क्लास बनाने की फ़ैक्टरी विधि।
आउटपुट <T>
बाहर ()
"var" के समान।
स्थिर SparseApplyAdadelta.Options
यूज़लॉकिंग (बूलियन यूज़लॉकिंग)

विरासत में मिली विधियाँ

स्थिरांक

सार्वजनिक स्थैतिक अंतिम स्ट्रिंग OP_NAME

इस ऑप का नाम, जैसा कि TensorFlow कोर इंजन द्वारा जाना जाता है

स्थिर मान: "SparseApplyAdadelta"

सार्वजनिक तरीके

सार्वजनिक आउटपुट <T> asOutput ()

टेंसर का प्रतीकात्मक हैंडल लौटाता है।

TensorFlow संचालन के इनपुट किसी अन्य TensorFlow ऑपरेशन के आउटपुट हैं। इस पद्धति का उपयोग एक प्रतीकात्मक हैंडल प्राप्त करने के लिए किया जाता है जो इनपुट की गणना का प्रतिनिधित्व करता है।

सार्वजनिक स्थैतिक SparseApplyAdadelta <T> बनाएं ( स्कोप स्कोप, ऑपरेंड <T> var, ऑपरेंड <T> जमा, ऑपरेंड <T> जमा अद्यतन, ऑपरेंड <T> lr, ऑपरेंड <T> rho, ऑपरेंड <T> एप्सिलॉन, ऑपरेंड <T > ग्रेड, ऑपरेंड <? एक्सटेंड्स टीएनंबर > सूचकांक, विकल्प... विकल्प)

एक नए SparseApplyAdadelta ऑपरेशन को लपेटकर एक क्लास बनाने की फ़ैक्टरी विधि।

पैरामीटर
दायरा वर्तमान दायरा
जमा एक वेरिएबल() से होना चाहिए।
संचित अद्यतन : एक वेरिएबल() से होना चाहिए।
एलआर सीखने की दर। एक अदिश राशि होनी चाहिए.
रो क्षय कारक. एक अदिश राशि होनी चाहिए.
एप्सिलॉन निरंतर कारक. एक अदिश राशि होनी चाहिए.
ग्रैड ढाल.
सूचकांक var और accum के पहले आयाम में सूचकांकों का एक वेक्टर।
विकल्प वैकल्पिक गुण मान रखता है
रिटर्न
  • SparseApplyAdadelta का एक नया उदाहरण

सार्वजनिक आउटपुट <T> आउट ()

"var" के समान।

सार्वजनिक स्थैतिक SparseApplyAdadelta.ऑप्शंस यूज़लॉकिंग (बूलियन यूज़लॉकिंग)

पैरामीटर
लॉकिंग का उपयोग करें यदि सत्य है, तो var और Accum Tensors का अद्यतनीकरण एक लॉक द्वारा सुरक्षित किया जाएगा; अन्यथा व्यवहार अपरिभाषित है, लेकिन कम विवाद प्रदर्शित कर सकता है।
,
सार्वजनिक अंतिम वर्ग SparseApplyAdadelta

var: एक वेरिएबल() से होना चाहिए।

नेस्टेड क्लासेस

कक्षा SparseApplyAddelta.विकल्प SparseApplyAdadelta के लिए वैकल्पिक विशेषताएँ

स्थिरांक

डोरी OP_NAME इस ऑप का नाम, जैसा कि TensorFlow कोर इंजन द्वारा जाना जाता है

सार्वजनिक तरीके

आउटपुट <T>
आउटपुट के रूप में ()
टेंसर का प्रतीकात्मक हैंडल लौटाता है।
स्थिर <T टीटाइप का विस्तार करता है > SparseApplyAdadelta <T>
बनाएँ ( स्कोप स्कोप, ऑपरेंड <T> var, ऑपरेंड <T> Accum, ऑपरेंड <T> AccumUpdate, ऑपरेंड <T> lr, ऑपरेंड <T> rho, ऑपरेंड <T> एप्सिलॉन, ऑपरेंड <T> ग्रेड, ऑपरेंड <? TNumber > सूचकांक, विकल्प... विकल्प बढ़ाता है)
एक नए SparseApplyAdadelta ऑपरेशन को लपेटकर एक क्लास बनाने की फ़ैक्टरी विधि।
आउटपुट <T>
बाहर ()
"var" के समान।
स्थिर SparseApplyAdadelta.Options
यूज़लॉकिंग (बूलियन यूज़लॉकिंग)

विरासत में मिली विधियाँ

स्थिरांक

सार्वजनिक स्थैतिक अंतिम स्ट्रिंग OP_NAME

इस ऑप का नाम, जैसा कि TensorFlow कोर इंजन द्वारा जाना जाता है

स्थिर मान: "SparseApplyAdadelta"

सार्वजनिक तरीके

सार्वजनिक आउटपुट <T> asOutput ()

टेंसर का प्रतीकात्मक हैंडल लौटाता है।

TensorFlow संचालन के इनपुट किसी अन्य TensorFlow ऑपरेशन के आउटपुट हैं। इस पद्धति का उपयोग एक प्रतीकात्मक हैंडल प्राप्त करने के लिए किया जाता है जो इनपुट की गणना का प्रतिनिधित्व करता है।

सार्वजनिक स्थैतिक SparseApplyAdadelta <T> बनाएं ( स्कोप स्कोप, ऑपरेंड <T> var, ऑपरेंड <T> जमा, ऑपरेंड <T> जमा अद्यतन, ऑपरेंड <T> lr, ऑपरेंड <T> rho, ऑपरेंड <T> एप्सिलॉन, ऑपरेंड <T > ग्रेड, ऑपरेंड <? एक्सटेंड्स टीएनंबर > सूचकांक, विकल्प... विकल्प)

एक नए SparseApplyAdadelta ऑपरेशन को लपेटकर एक क्लास बनाने की फ़ैक्टरी विधि।

पैरामीटर
दायरा वर्तमान दायरा
जमा एक वेरिएबल() से होना चाहिए।
संचित अद्यतन : एक वेरिएबल() से होना चाहिए।
एलआर सीखने की दर। एक अदिश राशि होनी चाहिए.
रो क्षय कारक. एक अदिश राशि होनी चाहिए.
एप्सिलॉन निरंतर कारक. एक अदिश राशि होनी चाहिए.
ग्रैड ढाल.
सूचकांक var और accum के पहले आयाम में सूचकांकों का एक वेक्टर।
विकल्प वैकल्पिक गुण मान रखता है
रिटर्न
  • SparseApplyAdadelta का एक नया उदाहरण

सार्वजनिक आउटपुट <T> आउट ()

"var" के समान।

सार्वजनिक स्थैतिक SparseApplyAdadelta.ऑप्शंस यूज़लॉकिंग (बूलियन यूज़लॉकिंग)

पैरामीटर
लॉकिंग का उपयोग करें यदि सत्य है, तो var और Accum Tensors का अद्यतनीकरण एक लॉक द्वारा सुरक्षित किया जाएगा; अन्यथा व्यवहार अपरिभाषित है, लेकिन कम विवाद प्रदर्शित कर सकता है।