ResourceApplyAdagradDa

सार्वजनिक अंतिम वर्ग रिसोर्सएप्लाईएडग्रेडडा

समीपस्थ एडाग्रैड योजना के अनुसार '*var' को अपडेट करें।

नेस्टेड क्लासेस

कक्षा रिसोर्सएप्लाईएडाग्रेडडा.ऑप्शंस ResourceApplyAdagradDa के लिए वैकल्पिक विशेषताएँ

स्थिरांक

डोरी OP_NAME इस ऑप का नाम, जैसा कि TensorFlow कोर इंजन द्वारा जाना जाता है

सार्वजनिक तरीके

स्थिर <T टीटाइप का विस्तार करता है > रिसोर्सएप्लाईएडाग्रेडडा
बनाएं ( स्कोप स्कोप, ऑपरेंड <?> var, ऑपरेंड <?> ग्रेडिएंट एक्युमुलेटर, ऑपरेंड <?> ग्रेडिएंटस्क्वेयर एक्युमुलेटर, ऑपरेंड <T> ग्रेड, ऑपरेंड <T> lr, ऑपरेंड <T> l1, ऑपरेंड <T> l2, ऑपरेंड < TInt64 > ग्लोबलस्टेप, विकल्प... विकल्प)
एक नए रिसोर्सएप्लाईएडग्रेडडा ऑपरेशन को लपेटकर एक क्लास बनाने की फ़ैक्टरी विधि।
स्थैतिक संसाधनApplyAdagradDa.Options
यूज़लॉकिंग (बूलियन यूज़लॉकिंग)

विरासत में मिली विधियाँ

स्थिरांक

सार्वजनिक स्थैतिक अंतिम स्ट्रिंग OP_NAME

इस ऑप का नाम, जैसा कि TensorFlow कोर इंजन द्वारा जाना जाता है

स्थिर मान: "ResourceApplyAdagradDA"

सार्वजनिक तरीके

सार्वजनिक स्थैतिक संसाधनApplyAdagradDa बनाएं ( स्कोप स्कोप, ऑपरेंड <?> var, ऑपरेंड <?> ग्रेडिएंट एक्युमुलेटर, ऑपरेंड <?> ग्रेडिएंटस्क्वेयर एक्युमुलेटर, ऑपरेंड <T> ग्रेड, ऑपरेंड <T> lr, ऑपरेंड <T> l1, ऑपरेंड <T> l2, ऑपरेंड < TInt64 > ग्लोबलस्टेप, विकल्प... विकल्प)

एक नए रिसोर्सएप्लाईएडग्रेडडा ऑपरेशन को लपेटकर एक क्लास बनाने की फ़ैक्टरी विधि।

पैरामीटर
दायरा वर्तमान दायरा
वर एक वेरिएबल() से होना चाहिए।
ग्रेडिएंट एक्युमुलेटर एक वेरिएबल() से होना चाहिए।
gradientSquaredAccumulator एक वेरिएबल() से होना चाहिए।
ग्रैड ढाल.
एलआर मापन कारक। एक अदिश राशि होनी चाहिए.
एल1 एल1 नियमितीकरण. एक अदिश राशि होनी चाहिए.
एल2 L2 नियमितीकरण. एक अदिश राशि होनी चाहिए.
ग्लोबलस्टेप प्रशिक्षण चरण संख्या. एक अदिश राशि होनी चाहिए.
विकल्प वैकल्पिक गुण मान रखता है
रिटर्न
  • resourceApplyAdagradDa का एक नया उदाहरण

सार्वजनिक स्थैतिक संसाधनApplyAdagradDa.Options उपयोगलॉकिंग (बूलियन उपयोगलॉकिंग)

पैरामीटर
लॉकिंग का उपयोग करें यदि सत्य है, तो var और Accum Tensors का अद्यतनीकरण एक लॉक द्वारा सुरक्षित किया जाएगा; अन्यथा व्यवहार अपरिभाषित है, लेकिन कम विवाद प्रदर्शित कर सकता है।