SparseApplyAdagradDa

सार्वजनिक अंतिम वर्ग SparseApplyAdagradDa

समीपस्थ एडाग्रेड योजना के अनुसार '*var' और '*accum' में प्रविष्टियाँ अद्यतन करें।

नेस्टेड क्लासेस

कक्षा SparseApplyAdagradDa.विकल्प SparseApplyAdagradDa के लिए वैकल्पिक विशेषताएँ

स्थिरांक

डोरी OP_NAME इस ऑप का नाम, जैसा कि TensorFlow कोर इंजन द्वारा जाना जाता है

सार्वजनिक तरीके

आउटपुट <T>
आउटपुट के रूप में ()
टेंसर का प्रतीकात्मक हैंडल लौटाता है।
स्थिर <T टीटाइप का विस्तार करता है > SparseApplyAdagradDa <T>
बनाएं ( स्कोप स्कोप, ऑपरेंड <T> var, ऑपरेंड <T> ग्रेडिएंट एक्युमुलेटर, ऑपरेंड <T> ग्रेडिएंटस्क्वेयर एक्युमुलेटर, ऑपरेंड <T> ग्रेड, ऑपरेंड <? विस्तारित TNumber > इंडेक्स, ऑपरेंड <T> lr, ऑपरेंड <T> l1, ऑपरेंड <टी> एल2, ऑपरेंड < टीआईएनटी64 > ग्लोबलस्टेप, विकल्प... विकल्प)
एक नए SparseApplyAdagradDa ऑपरेशन को लपेटकर एक क्लास बनाने की फ़ैक्टरी विधि।
आउटपुट <T>
बाहर ()
"var" के समान।
स्थिर SparseApplyAdagradDa.Options
यूज़लॉकिंग (बूलियन यूज़लॉकिंग)

विरासत में मिली विधियाँ

स्थिरांक

सार्वजनिक स्थैतिक अंतिम स्ट्रिंग OP_NAME

इस ऑप का नाम, जैसा कि TensorFlow कोर इंजन द्वारा जाना जाता है

स्थिर मान: "SparseApplyAdagradDA"

सार्वजनिक तरीके

सार्वजनिक आउटपुट <T> asOutput ()

टेंसर का प्रतीकात्मक हैंडल लौटाता है।

TensorFlow संचालन के इनपुट किसी अन्य TensorFlow ऑपरेशन के आउटपुट हैं। इस पद्धति का उपयोग एक प्रतीकात्मक हैंडल प्राप्त करने के लिए किया जाता है जो इनपुट की गणना का प्रतिनिधित्व करता है।

सार्वजनिक स्थैतिक SparseApplyAdagradDa <T> बनाएं ( स्कोप स्कोप, ऑपरेंड <T> var, ऑपरेंड <T> gradientAccumulator, ऑपरेंड <T> gradientSquaredAccumulator, ऑपरेंड <T> ग्रेड, ऑपरेंड <? विस्तारित TNumber > सूचकांक, ऑपरेंड <T> lr, ऑपरेंड <T> l1, ऑपरेंड <T> l2, ऑपरेंड < TInt64 > ग्लोबलस्टेप, विकल्प... विकल्प)

एक नए SparseApplyAdagradDa ऑपरेशन को लपेटकर एक क्लास बनाने की फ़ैक्टरी विधि।

पैरामीटर
दायरा वर्तमान दायरा
वर एक वेरिएबल() से होना चाहिए।
ग्रेडिएंट एक्युमुलेटर एक वेरिएबल() से होना चाहिए।
gradientSquaredAccumulator एक वेरिएबल() से होना चाहिए।
ग्रैड ढाल.
सूचकांक var और accum के पहले आयाम में सूचकांकों का एक वेक्टर।
एलआर सीखने की दर। एक अदिश राशि होनी चाहिए.
एल1 एल1 नियमितीकरण. एक अदिश राशि होनी चाहिए.
एल2 L2 नियमितीकरण. एक अदिश राशि होनी चाहिए.
ग्लोबलस्टेप प्रशिक्षण चरण संख्या. एक अदिश राशि होनी चाहिए.
विकल्प वैकल्पिक गुण मान रखता है
रिटर्न
  • SparseApplyAdagradDa का एक नया उदाहरण

सार्वजनिक आउटपुट <T> आउट ()

"var" के समान।

सार्वजनिक स्थैतिक SparseApplyAdagradDa.ऑप्शंस यूज़लॉकिंग (बूलियन यूज़लॉकिंग)

पैरामीटर
लॉकिंग का उपयोग करें यदि सत्य है, तो var और Accum Tensors का अद्यतनीकरण एक लॉक द्वारा सुरक्षित किया जाएगा; अन्यथा व्यवहार अपरिभाषित है, लेकिन कम विवाद प्रदर्शित कर सकता है।