ApplyAdam

सार्वजनिक अंतिम कक्षा ApplyAdam

एडम एल्गोरिथम के अनुसार '*var' को अपडेट करें।

$$lr_t := \text{learning\_rate} * \sqrt{1 - beta_2^t} / (1 - beta_1^t)$$$$m_t := beta_1 * m_{t-1} + (1 - beta_1) * g$$$$v_t := beta_2 * v_{t-1} + (1 - beta_2) * g * g$$$$variable := variable - lr_t * m_t / (\sqrt{v_t} + \epsilon)$$

नेस्टेड क्लासेस

कक्षा एडम.विकल्प लागू करें ApplyAdam के लिए वैकल्पिक विशेषताएँ

स्थिरांक

डोरी OP_NAME इस ऑप का नाम, जैसा कि TensorFlow कोर इंजन द्वारा जाना जाता है

सार्वजनिक तरीके

आउटपुट <T>
आउटपुट के रूप में ()
टेंसर का प्रतीकात्मक हैंडल लौटाता है।
स्टेटिक <टी टीटाइप का विस्तार करता है > अप्लाईएडम <टी>
बनाएं ( स्कोप स्कोप, ऑपरेंड <टी> वर, ऑपरेंड <टी> एम, ऑपरेंड <टी> वी, ऑपरेंड <टी> बीटा1पावर, ऑपरेंड <टी> बीटा2पावर, ऑपरेंड <टी> एलआर, ऑपरेंड <टी> बीटा1, ऑपरेंड <टी > बीटा2, ऑपरेंड <टी> एप्सिलॉन, ऑपरेंड <टी> ग्रेड, विकल्प... विकल्प)
एक नए अप्लाईएडम ऑपरेशन को लपेटकर एक क्लास बनाने की फ़ैक्टरी विधि।
आउटपुट <T>
बाहर ()
"var" के समान।
स्थिर ApplyAdam.Options
यूज़लॉकिंग (बूलियन यूज़लॉकिंग)
स्थिर ApplyAdam.Options
यूज़नेस्टरोव (बूलियन यूज़नेस्टरोव)

विरासत में मिली विधियाँ

स्थिरांक

सार्वजनिक स्थैतिक अंतिम स्ट्रिंग OP_NAME

इस ऑप का नाम, जैसा कि TensorFlow कोर इंजन द्वारा जाना जाता है

स्थिर मान: "ApplyAdam"

सार्वजनिक तरीके

सार्वजनिक आउटपुट <T> asOutput ()

टेंसर का प्रतीकात्मक हैंडल लौटाता है।

TensorFlow संचालन के इनपुट किसी अन्य TensorFlow ऑपरेशन के आउटपुट हैं। इस पद्धति का उपयोग एक प्रतीकात्मक हैंडल प्राप्त करने के लिए किया जाता है जो इनपुट की गणना का प्रतिनिधित्व करता है।

सार्वजनिक स्थैतिक अप्लाईएडम <टी> बनाएं ( स्कोप स्कोप, ऑपरेंड <टी> वर, ऑपरेंड <टी> एम, ऑपरेंड <टी> वी, ऑपरेंड <टी> बीटा1पावर, ऑपरेंड <टी> बीटा2पावर, ऑपरेंड <टी> एलआर, ऑपरेंड <टी > बीटा1, ऑपरेंड <टी> बीटा2, ऑपरेंड <टी> एप्सिलॉन, ऑपरेंड <टी> ग्रेड, विकल्प... विकल्प)

एक नए अप्लाईएडम ऑपरेशन को लपेटकर एक क्लास बनाने की फ़ैक्टरी विधि।

पैरामीटर
दायरा वर्तमान दायरा
वर एक वेरिएबल() से होना चाहिए।
एम एक वेरिएबल() से होना चाहिए।
वी एक वेरिएबल() से होना चाहिए।
बीटा1पावर एक अदिश राशि होनी चाहिए.
बीटा2पावर एक अदिश राशि होनी चाहिए.
एलआर मापन कारक। एक अदिश राशि होनी चाहिए.
बीटा1 संवेग कारक. एक अदिश राशि होनी चाहिए.
बीटा2 संवेग कारक. एक अदिश राशि होनी चाहिए.
एप्सिलॉन रिज शब्द. एक अदिश राशि होनी चाहिए.
ग्रैड ढाल.
विकल्प वैकल्पिक गुण मान रखता है
रिटर्न
  • अप्लाईएडम का एक नया उदाहरण

सार्वजनिक आउटपुट <T> आउट ()

"var" के समान।

सार्वजनिक स्थैतिक ApplyAdam.Options यूज़लॉकिंग (बूलियन यूज़लॉकिंग)

पैरामीटर
लॉकिंग का उपयोग करें यदि `सही` है, तो var, m, और v टेंसर का अद्यतन एक लॉक द्वारा संरक्षित किया जाएगा; अन्यथा व्यवहार अपरिभाषित है, लेकिन कम विवाद प्रदर्शित कर सकता है।

सार्वजनिक स्थैतिक ApplyAdam.Options उपयोगनेस्टरोव (बूलियन उपयोगनेस्टरोव)

पैरामीटर
नेस्टरोव का उपयोग करें यदि `सही` है, तो नेस्टरोव अद्यतन का उपयोग करता है।