SparseApplyProximalGradientDescent

सार्वजनिक अंतिम वर्ग SparseApplyProximalGradientDescent

निश्चित सीखने की दर के साथ एफओबीओएस एल्गोरिदम के रूप में विरल अद्यतन '*var'।

यानी उन पंक्तियों के लिए जिनके लिए हमारे पास ग्रेड है, हम var को इस प्रकार अपडेट करते हैं: $$prox_v = var - alpha grad$$$$var = sign(prox_v)/(1+alphal2) max{|prox_v|-alphal1,0}$$

नेस्टेड क्लासेस

कक्षा SparseApplyProximalGradientDescent.Options SparseApplyProximalGradientDescent के लिए वैकल्पिक विशेषताएँ

स्थिरांक

डोरी OP_NAME इस ऑप का नाम, जैसा कि TensorFlow कोर इंजन द्वारा जाना जाता है

सार्वजनिक तरीके

आउटपुट <T>
आउटपुट के रूप में ()
टेंसर का प्रतीकात्मक हैंडल लौटाता है।
स्थिर <T टीटाइप का विस्तार करता है > SparseApplyProximalGradientDescent <T>
बनाएं ( स्कोप स्कोप, ऑपरेंड <T> var, ऑपरेंड <T> अल्फा, ऑपरेंड <T> l1, ऑपरेंड <T> l2, ऑपरेंड <T> ग्रेड, ऑपरेंड <? विस्तारित TNumber > सूचकांक, विकल्प... विकल्प)
एक नए SparseApplyProximalGradientDescent ऑपरेशन को लपेटकर एक क्लास बनाने की फ़ैक्टरी विधि।
आउटपुट <T>
बाहर ()
"var" के समान।
स्थिर स्पार्सअप्लाईप्रॉक्सिमलग्रेडिएंटडिसेंट.विकल्प
यूज़लॉकिंग (बूलियन यूज़लॉकिंग)

विरासत में मिली विधियाँ

स्थिरांक

सार्वजनिक स्थैतिक अंतिम स्ट्रिंग OP_NAME

इस ऑप का नाम, जैसा कि TensorFlow कोर इंजन द्वारा जाना जाता है

स्थिर मान: "SparseApplyProximalGradientDescent"

सार्वजनिक तरीके

सार्वजनिक आउटपुट <T> asOutput ()

टेंसर का प्रतीकात्मक हैंडल लौटाता है।

TensorFlow संचालन के इनपुट किसी अन्य TensorFlow ऑपरेशन के आउटपुट हैं। इस पद्धति का उपयोग एक प्रतीकात्मक हैंडल प्राप्त करने के लिए किया जाता है जो इनपुट की गणना का प्रतिनिधित्व करता है।

सार्वजनिक स्थैतिक SparseApplyProximalGradientDescent <T> बनाएं ( स्कोप स्कोप, ऑपरेंड <T> var, ऑपरेंड <T> अल्फा, ऑपरेंड <T> l1, ऑपरेंड <T> l2, ऑपरेंड <T> ग्रेड, ऑपरेंड <? विस्तारित TNumber > सूचकांक, विकल्प ... विकल्प)

एक नए SparseApplyProximalGradientDescent ऑपरेशन को लपेटकर एक क्लास बनाने की फ़ैक्टरी विधि।

पैरामीटर
दायरा वर्तमान दायरा
वर एक वेरिएबल() से होना चाहिए।
अल्फा मापन कारक। एक अदिश राशि होनी चाहिए.
एल1 एल1 नियमितीकरण. एक अदिश राशि होनी चाहिए.
एल2 L2 नियमितीकरण. एक अदिश राशि होनी चाहिए.
ग्रैड ढाल.
सूचकांक var और accum के पहले आयाम में सूचकांकों का एक वेक्टर।
विकल्प वैकल्पिक गुण मान रखता है
रिटर्न
  • SparseApplyProximalGradientDescent का एक नया उदाहरण

सार्वजनिक आउटपुट <T> आउट ()

"var" के समान।

सार्वजनिक स्थैतिक SparseApplyProximalGradientDescent.Options यूज़लॉकिंग (बूलियन यूज़लॉकिंग)

पैरामीटर
लॉकिंग का उपयोग करें यदि सत्य है, तो घटाव को ताले द्वारा संरक्षित किया जाएगा; अन्यथा व्यवहार अपरिभाषित है, लेकिन कम विवाद प्रदर्शित कर सकता है।