ResourceApplyProximalAdagrad

सार्वजनिक अंतिम वर्ग रिसोर्सएप्लाईप्रॉक्सिमलएडाग्रेड

Adagrad सीखने की दर के साथ FOBOS के अनुसार '*var' और '*accum' को अपडेट करें।

accum += ग्रेड ग्रेड prox_v = var - lr ग्रेड (1 / sqrt(accum)) var = साइन(prox_v)/(1+lr l2) अधिकतम{|prox_v|-lr l1,0}

नेस्टेड क्लासेस

कक्षा रिसोर्सएप्लाईप्रॉक्सिमलएडाग्रेड.ऑप्शंस ResourceApplyProximalAdagrad के लिए वैकल्पिक विशेषताएँ

स्थिरांक

डोरी OP_NAME इस ऑप का नाम, जैसा कि TensorFlow कोर इंजन द्वारा जाना जाता है

सार्वजनिक तरीके

स्थिर <टी टीटाइप का विस्तार करता है > रिसोर्सएप्लाईप्रॉक्सिमलएडाग्रेड
बनाएं ( स्कोप स्कोप, ऑपरेंड <?> var, ऑपरेंड <?> Accum, ऑपरेंड <T> lr, ऑपरेंड <T> l1, ऑपरेंड <T> l2, ऑपरेंड <T> ग्रेड, विकल्प... विकल्प)
एक नए रिसोर्सएप्लाईप्रॉक्सिमलएडग्रेड ऑपरेशन को लपेटकर एक क्लास बनाने की फ़ैक्टरी विधि।
स्थैतिक संसाधन लागू करें ProximalAdagrad.Options
यूज़लॉकिंग (बूलियन यूज़लॉकिंग)

विरासत में मिली विधियाँ

स्थिरांक

सार्वजनिक स्थैतिक अंतिम स्ट्रिंग OP_NAME

इस ऑप का नाम, जैसा कि TensorFlow कोर इंजन द्वारा जाना जाता है

स्थिर मान: "ResourceApplyProximalAdagrad"

सार्वजनिक तरीके

सार्वजनिक स्थैतिक संसाधनApplyProximalAdagrad बनाएं ( स्कोप स्कोप, ऑपरेंड <?> var, ऑपरेंड <?> accum, ऑपरेंड <T> lr, ऑपरेंड <T> l1, ऑपरेंड <T> l2, ऑपरेंड <T> ग्रेड, विकल्प... विकल्प)

एक नए रिसोर्सएप्लाईप्रॉक्सिमलएडग्रेड ऑपरेशन को लपेटकर एक क्लास बनाने की फ़ैक्टरी विधि।

पैरामीटर
दायरा वर्तमान दायरा
वर एक वेरिएबल() से होना चाहिए।
जमा एक वेरिएबल() से होना चाहिए।
एलआर मापन कारक। एक अदिश राशि होनी चाहिए.
एल1 एल1 नियमितीकरण. एक अदिश राशि होनी चाहिए.
एल2 L2 नियमितीकरण. एक अदिश राशि होनी चाहिए.
ग्रैड ढाल.
विकल्प वैकल्पिक गुण मान रखता है
रिटर्न
  • resourceApplyProximalAdagrad का एक नया उदाहरण

सार्वजनिक स्थैतिक संसाधनApplyProximalAdagrad.Options उपयोगलॉकिंग (बूलियन उपयोगलॉकिंग)

पैरामीटर
लॉकिंग का उपयोग करें यदि सत्य है, तो var और Accum Tensors का अद्यतनीकरण एक लॉक द्वारा सुरक्षित किया जाएगा; अन्यथा व्यवहार अपरिभाषित है, लेकिन कम विवाद प्रदर्शित कर सकता है।