एडग्रेड योजना के अनुसार '*var' और '*accum' में प्रासंगिक प्रविष्टियों को अपडेट करें।
यह उन पंक्तियों के लिए है जिनके लिए हमारे पास ग्रेड है, हम var और accum को निम्नानुसार अपडेट करते हैं: $$accum += grad * grad$$$$var -= lr * grad * (1 / sqrt(accum))$$
नेस्टेड कक्षाएं
कक्षा | SparseApplyAdagradV2.Options | SparseApplyAdagradV2 के लिए वैकल्पिक विशेषताएँ |
सार्वजनिक तरीके
आउटपुट <टी> | आउटपुट के रूप में () टेंसर का प्रतीकात्मक हैंडल लौटाता है। |
स्थिर <T, U संख्या बढ़ाता है> SparseApplyAdagradV2 <T> | |
आउटपुट <टी> | बाहर () "वर" के समान। |
स्थिर विरल लागू करेंAdagradV2.Options | अद्यतन स्लॉट (बूलियन अद्यतन स्लॉट) |
स्थिर विरल लागू करेंAdagradV2.Options | उपयोग लॉकिंग (बूलियन उपयोग लॉकिंग) |
विरासत में मिली विधियां
सार्वजनिक तरीके
सार्वजनिक आउटपुट <T> आउटपुट के रूप में ()
टेंसर का प्रतीकात्मक हैंडल लौटाता है।
TensorFlow संचालन के लिए इनपुट एक अन्य TensorFlow ऑपरेशन के आउटपुट हैं। इस पद्धति का उपयोग एक प्रतीकात्मक हैंडल प्राप्त करने के लिए किया जाता है जो इनपुट की गणना का प्रतिनिधित्व करता है।
पब्लिक स्टैटिक SparseApplyAdagradV2 <T> क्रिएट ( स्कोप स्कोप, ऑपरेंड <T> var, ऑपरेंड <T> accum, ऑपरेंड <T> lr, ऑपरेंड <T> एप्सिलॉन, ऑपरेंड <T> ग्रेड, ऑपरेंड <U> इंडेक्स, विकल्प .. विकल्प )
एक नया SparseApplyAdagradV2 ऑपरेशन रैपिंग क्लास बनाने के लिए फ़ैक्टरी विधि।
मापदंडों
दायरा | वर्तमान दायरा |
---|---|
वर | एक चर() से होना चाहिए। |
संचय | एक चर() से होना चाहिए। |
एलआर | सीखने की दर। एक अदिश राशि होनी चाहिए। |
एप्सिलॉन | लगातार कारक। एक अदिश राशि होनी चाहिए। |
ग्रैड | ढाल। |
सूचकांक | var और accum के पहले आयाम में सूचकांकों का एक वेक्टर। |
विकल्प | वैकल्पिक विशेषता मान रखता है |
रिटर्न
- SparseApplyAdagradV2 का एक नया उदाहरण
सार्वजनिक स्थैतिक SparseApplyAdagradV2.Options useLocking (बूलियन useLocking)
मापदंडों
लॉकिंग का उपयोग करें | यदि `True` है, तो var और accum tensors के अपडेट को लॉक द्वारा संरक्षित किया जाएगा; अन्यथा व्यवहार अपरिभाषित है, लेकिन कम विवाद प्रदर्शित कर सकता है। |
---|