ResourceSparseApplyAdagradDa

सार्वजनिक अंतिम वर्ग रिसोर्सस्पार्सएप्लाईएडग्रेडडा

समीपस्थ एडाग्रेड योजना के अनुसार '*var' और '*accum' में प्रविष्टियाँ अद्यतन करें।

नेस्टेड क्लासेस

कक्षा रिसोर्सस्पार्सएप्लाईएडाग्रेडडा.ऑप्शंस ResourceSparseApplyAdagradDa के लिए वैकल्पिक विशेषताएँ

स्थिरांक

डोरी OP_NAME इस ऑप का नाम, जैसा कि TensorFlow कोर इंजन द्वारा जाना जाता है

सार्वजनिक तरीके

स्थिर <टी टीटाइप का विस्तार करता है > रिसोर्सस्पार्सएप्लाईएडाग्रेडडा
बनाएं ( स्कोप स्कोप, ऑपरेंड <?> var, ऑपरेंड <?> ग्रेडिएंट एक्युमुलेटर, ऑपरेंड <?> ग्रेडिएंटस्क्वेयर एक्युमुलेटर, ऑपरेंड <T> ग्रेड, ऑपरेंड <? एक्सटेंड्स TNumber > इंडेक्स, ऑपरेंड <T> lr, ऑपरेंड <T> l1, ऑपरेंड <टी> एल2, ऑपरेंड < टीआईएनटी64 > ग्लोबलस्टेप, विकल्प... विकल्प)
एक नए रिसोर्सस्पार्सएप्लाईएडाग्रेडडा ऑपरेशन को लपेटकर एक क्लास बनाने की फ़ैक्टरी विधि।
स्टेटिक रिसोर्सस्पार्सएप्लाईएडग्रेडडा.ऑप्शन
यूज़लॉकिंग (बूलियन यूज़लॉकिंग)

विरासत में मिली विधियाँ

स्थिरांक

सार्वजनिक स्थैतिक अंतिम स्ट्रिंग OP_NAME

इस ऑप का नाम, जैसा कि TensorFlow कोर इंजन द्वारा जाना जाता है

स्थिर मान: "ResourceSparseApplyAdagradDA"

सार्वजनिक तरीके

सार्वजनिक स्थैतिक संसाधनSparseApplyAdagradDa क्रिएट ( स्कोप स्कोप, ऑपरेंड <?> var, ऑपरेंड <?> ग्रेडिएंट एक्युमुलेटर, ऑपरेंड <?> ग्रेडिएंटस्क्वेयर एक्युमुलेटर, ऑपरेंड <T> ग्रेड, ऑपरेंड <? एक्सटेंड्स TNumber > इंडेक्स, ऑपरेंड <T> lr, ऑपरेंड <T> एल1, ऑपरेंड <टी> एल2, ऑपरेंड < टीआईएनटी64 > ग्लोबलस्टेप, विकल्प... विकल्प)

एक नए रिसोर्सस्पार्सएप्लाईएडाग्रेडडा ऑपरेशन को लपेटकर एक क्लास बनाने की फ़ैक्टरी विधि।

पैरामीटर
दायरा वर्तमान दायरा
वर एक वेरिएबल() से होना चाहिए।
ग्रेडिएंट एक्युमुलेटर एक वेरिएबल() से होना चाहिए।
gradientSquaredAccumulator एक वेरिएबल() से होना चाहिए।
ग्रैड ढाल.
सूचकांक var और accum के पहले आयाम में सूचकांकों का एक वेक्टर।
एलआर सीखने की दर। एक अदिश राशि होनी चाहिए.
एल1 एल1 नियमितीकरण. एक अदिश राशि होनी चाहिए.
एल2 L2 नियमितीकरण. एक अदिश राशि होनी चाहिए.
ग्लोबलस्टेप प्रशिक्षण चरण संख्या. एक अदिश राशि होनी चाहिए.
विकल्प वैकल्पिक गुण मान रखता है
रिटर्न
  • resourceSparseApplyAdagradDa का एक नया उदाहरण

सार्वजनिक स्थैतिक संसाधनSparseApplyAdagradDa.Options उपयोगलॉकिंग (बूलियन उपयोगलॉकिंग)

पैरामीटर
लॉकिंग का उपयोग करें यदि सत्य है, तो var और Accum Tensors का अद्यतनीकरण एक लॉक द्वारा सुरक्षित किया जाएगा; अन्यथा व्यवहार अपरिभाषित है, लेकिन कम विवाद प्रदर्शित कर सकता है।