एडग्रेड योजना के अनुसार '*var' को अपडेट करें।
accum += grad * grad var -= lr * grad * (1 / sqrt(accum))
नेस्टेड कक्षाएं
कक्षा | ApplyAdgradV2.Options | के लिए वैकल्पिक विशेषताओं ApplyAdagradV2 |
सार्वजनिक तरीके
आउटपुट <टी> | asOutput () टेंसर का प्रतीकात्मक हैंडल लौटाता है। |
स्थिर <टी> ApplyAdagradV2 <टी> | |
आउटपुट <टी> | बाहर () "वर" के समान। |
स्थिर ApplyAdagradV2.Options | updateSlots (बूलियन updateSlots) |
स्थिर ApplyAdagradV2.Options | useLocking (बूलियन useLocking) |
विरासत में मिली विधियां
सार्वजनिक तरीके
सार्वजनिक आउटपुट <टी> asOutput ()
टेंसर का प्रतीकात्मक हैंडल लौटाता है।
TensorFlow संचालन के लिए इनपुट एक अन्य TensorFlow ऑपरेशन के आउटपुट हैं। इस पद्धति का उपयोग एक प्रतीकात्मक हैंडल प्राप्त करने के लिए किया जाता है जो इनपुट की गणना का प्रतिनिधित्व करता है।
सार्वजनिक स्थिर ApplyAdagradV2 <टी> बनाने ( स्कोप गुंजाइश, ओपेरैंड <टी> वर, ओपेरैंड <टी> accum, ओपेरैंड <टी> एलआर, ओपेरैंड <टी> एप्सिलॉन, ओपेरैंड <टी> स्नातक, विकल्प ... विकल्प)
एक नया ApplyAdagradV2 ऑपरेशन रैपिंग क्लास बनाने के लिए फ़ैक्टरी विधि।
मापदंडों
दायरा | वर्तमान दायरा |
---|---|
वर | एक चर() से होना चाहिए। |
संचय | एक चर() से होना चाहिए। |
एलआर | मापन कारक। एक अदिश राशि होनी चाहिए। |
एप्सिलॉन | लगातार कारक। एक अदिश राशि होनी चाहिए। |
ग्रैड | ढाल। |
विकल्प | वैकल्पिक विशेषता मान रखता है |
रिटर्न
- ApplyAdagradV2 का एक नया उदाहरण
सार्वजनिक स्थिर ApplyAdagradV2.Options useLocking (बूलियन useLocking)
मापदंडों
लॉकिंग का उपयोग करें | यदि `True` है, तो var और accum tensors के अपडेट को लॉक द्वारा संरक्षित किया जाएगा; अन्यथा व्यवहार अपरिभाषित है, लेकिन कम विवाद प्रदर्शित कर सकता है। |
---|