चेतावनी: इस एपीआई को पदावनत कर दिया गया है और प्रतिस्थापन के स्थिर होने के बाद इसे TensorFlow के भविष्य के संस्करण में हटा दिया जाएगा।

SparseApplyAdagradV2

सार्वजनिक अंतिम वर्ग SparseApplyAdagradV2

एडग्रेड योजना के अनुसार '*var' और '*accum' में प्रासंगिक प्रविष्टियों को अपडेट करें।

यह उन पंक्तियों के लिए है जिनके लिए हमारे पास ग्रेड है, हम var और accum को निम्नानुसार अपडेट करते हैं: $$accum += grad * grad$$$$var -= lr * grad * (1 / sqrt(accum))$$

नेस्टेड कक्षाएं

कक्षा SparseApplyAdagradV2.Options SparseApplyAdagradV2 के लिए वैकल्पिक विशेषताएँ

सार्वजनिक तरीके

आउटपुट <टी>
आउटपुट के रूप में ()
टेंसर का प्रतीकात्मक हैंडल लौटाता है।
स्थिर <T, U संख्या बढ़ाता है> SparseApplyAdagradV2 <T>
create ( स्कोप स्कोप, ऑपरेंड <T> var, ऑपरेंड <T> accum, ऑपरेंड <T> lr, ऑपरेंड <T> एप्सिलॉन, ऑपरेंड <T> ग्रेड, ऑपरेंड <U> इंडेक्स, विकल्प ... विकल्प)
एक नया SparseApplyAdagradV2 ऑपरेशन रैपिंग क्लास बनाने के लिए फ़ैक्टरी विधि।
आउटपुट <टी>
बाहर ()
"वर" के समान।
स्थिर विरल लागू करेंAdagradV2.Options
अद्यतन स्लॉट (बूलियन अद्यतन स्लॉट)
स्थिर विरल लागू करेंAdagradV2.Options
उपयोग लॉकिंग (बूलियन उपयोग लॉकिंग)

विरासत में मिली विधियां

सार्वजनिक तरीके

सार्वजनिक आउटपुट <T> आउटपुट के रूप में ()

टेंसर का प्रतीकात्मक हैंडल लौटाता है।

TensorFlow संचालन के लिए इनपुट एक अन्य TensorFlow ऑपरेशन के आउटपुट हैं। इस पद्धति का उपयोग एक प्रतीकात्मक हैंडल प्राप्त करने के लिए किया जाता है जो इनपुट की गणना का प्रतिनिधित्व करता है।

पब्लिक स्टैटिक SparseApplyAdagradV2 <T> क्रिएट ( स्कोप स्कोप, ऑपरेंड <T> var, ऑपरेंड <T> accum, ऑपरेंड <T> lr, ऑपरेंड <T> एप्सिलॉन, ऑपरेंड <T> ग्रेड, ऑपरेंड <U> इंडेक्स, विकल्प .. विकल्प )

एक नया SparseApplyAdagradV2 ऑपरेशन रैपिंग क्लास बनाने के लिए फ़ैक्टरी विधि।

मापदंडों
दायरा वर्तमान दायरा
वर एक चर() से होना चाहिए।
संचय एक चर() से होना चाहिए।
एलआर सीखने की दर। एक अदिश राशि होनी चाहिए।
एप्सिलॉन लगातार कारक। एक अदिश राशि होनी चाहिए।
ग्रैड ढाल।
सूचकांक var और accum के पहले आयाम में सूचकांकों का एक वेक्टर।
विकल्प वैकल्पिक विशेषता मान रखता है
रिटर्न
  • SparseApplyAdagradV2 का एक नया उदाहरण

सार्वजनिक आउटपुट <T> आउट ()

"वर" के समान।

सार्वजनिक स्थैतिक SparseApplyAdagradV2.Options updateSlots (बूलियन अपडेटस्लॉट)

सार्वजनिक स्थैतिक SparseApplyAdagradV2.Options useLocking (बूलियन useLocking)

मापदंडों
लॉकिंग का उपयोग करें यदि `True` है, तो var और accum tensors के अपडेट को लॉक द्वारा संरक्षित किया जाएगा; अन्यथा व्यवहार अपरिभाषित है, लेकिन कम विवाद प्रदर्शित कर सकता है।