SparseApplyAdagradV2

सार्वजनिक अंतिम वर्ग SparseApplyAdagradV2

एडाग्रेड योजना के अनुसार '*var' और '*accum' में प्रासंगिक प्रविष्टियाँ अद्यतन करें।

यह उन पंक्तियों के लिए है जिनके लिए हमारे पास ग्रेड है, हम var को अपडेट करते हैं और निम्नानुसार जमा करते हैं: $$accum += grad * grad$$$$var -= lr * grad * (1 / sqrt(accum))$$

नेस्टेड क्लासेस

कक्षा SparseApplyAdagradV2.विकल्प SparseApplyAdagradV2 के लिए वैकल्पिक विशेषताएँ

सार्वजनिक तरीके

आउटपुट <T>
आउटपुट के रूप में ()
टेंसर का प्रतीकात्मक हैंडल लौटाता है।
स्थिर <T, U संख्या बढ़ाता है> SparseApplyAdagradV2 <T>
बनाएं ( स्कोप स्कोप, ऑपरेंड <T> var, ऑपरेंड <T> संचित, ऑपरेंड <T> एलआर, ऑपरेंड <T> एप्सिलॉन, ऑपरेंड <T> ग्रेड, ऑपरेंड <U> इंडेक्स, विकल्प... विकल्प)
एक नए SparseApplyAdagradV2 ऑपरेशन को लपेटकर एक क्लास बनाने की फ़ैक्टरी विधि।
आउटपुट <T>
बाहर ()
"var" के समान।
स्थिर SparseApplyAdagradV2.विकल्प
अपडेटस्लॉट्स (बूलियन अपडेटस्लॉट्स)
स्थिर SparseApplyAdagradV2.विकल्प
यूज़लॉकिंग (बूलियन यूज़लॉकिंग)

विरासत में मिली विधियाँ

सार्वजनिक तरीके

सार्वजनिक आउटपुट <T> asOutput ()

टेंसर का प्रतीकात्मक हैंडल लौटाता है।

TensorFlow संचालन के इनपुट किसी अन्य TensorFlow ऑपरेशन के आउटपुट हैं। इस पद्धति का उपयोग एक प्रतीकात्मक हैंडल प्राप्त करने के लिए किया जाता है जो इनपुट की गणना का प्रतिनिधित्व करता है।

सार्वजनिक स्थैतिक SparseApplyAdagradV2 <T> बनाएं ( स्कोप स्कोप, ऑपरेंड <T> var, ऑपरेंड <T> जमा, ऑपरेंड <T> एलआर, ऑपरेंड <T> एप्सिलॉन, ऑपरेंड <T> ग्रेड, ऑपरेंड <U> इंडेक्स, विकल्प.. विकल्प )

एक नए SparseApplyAdagradV2 ऑपरेशन को लपेटकर एक क्लास बनाने की फ़ैक्टरी विधि।

पैरामीटर
दायरा वर्तमान दायरा
वर एक वेरिएबल() से होना चाहिए।
जमा एक वेरिएबल() से होना चाहिए।
एलआर सीखने की दर। एक अदिश राशि होनी चाहिए.
एप्सिलॉन निरंतर कारक. एक अदिश राशि होनी चाहिए.
ग्रैड ढाल.
सूचकांक var और accum के पहले आयाम में सूचकांकों का एक वेक्टर।
विकल्प वैकल्पिक गुण मान रखता है
रिटर्न
  • SparseApplyAdagradV2 का एक नया उदाहरण

सार्वजनिक आउटपुट <T> आउट ()

"var" के समान।

सार्वजनिक स्थैतिक SparseApplyAdagradV2.ऑप्शंस अपडेट स्लॉट (बूलियन अपडेट स्लॉट)

सार्वजनिक स्थैतिक SparseApplyAdagradV2.ऑप्शंस यूज़लॉकिंग (बूलियन यूज़लॉकिंग)

पैरामीटर
लॉकिंग का उपयोग करें यदि `सही` है, तो var और Accum Tensors का अद्यतनीकरण एक लॉक द्वारा संरक्षित किया जाएगा; अन्यथा व्यवहार अपरिभाषित है, लेकिन कम विवाद प्रदर्शित कर सकता है।