AdaGradDA

सार्वजनिक वर्ग AdaGradDA

ऑप्टिमाइज़र जो एडाग्रेड डुअल-एवरेजिंग एल्गोरिदम को लागू करता है।

यह ऑप्टिमाइज़र एक मिनी बैच में अनदेखी सुविधाओं को बंद फॉर्म अपडेट नियम के साथ देखे जाने पर उन्हें अपडेट करके नियमित करने का ख्याल रखता है जो उन्हें हर मिनी-बैच पर अपडेट करने के बराबर है।

AdagradDA का उपयोग आम तौर पर तब किया जाता है जब प्रशिक्षित मॉडल में बड़ी विरलता की आवश्यकता होती है। यह अनुकूलक केवल रैखिक मॉडलों के लिए विरलता की गारंटी देता है। गहरे नेटवर्क के लिए AdagradDA का उपयोग करते समय सावधान रहें क्योंकि इसे प्रशिक्षित करने के लिए ग्रेडिएंट एक्युमुलेटर की सावधानीपूर्वक शुरुआत की आवश्यकता होगी।

स्थिरांक

डोरी संचायक
तैरना प्रारंभिक_ACCUMULATOR_DEFAULT
तैरना L1_STRENGTH_DEFAULT
तैरना L2_STRENGTH_DEFAULT
तैरना LEARNING_RATE_DEFAULT
डोरी SQUARED_ACCUMULATOR

विरासत में मिले स्थिरांक

सार्वजनिक निर्माता

AdaGradDA ( ग्राफ ग्राफ)
एक AdaGradDA ऑप्टिमाइज़र बनाता है
AdaGradDA ( ग्राफ़ ग्राफ़, फ़्लोट लर्निंग रेट)
एक AdaGradDA ऑप्टिमाइज़र बनाता है
AdaGradDA ( ग्राफ़ ग्राफ़, फ़्लोट लर्निंगरेट, फ़्लोट इनिशियलएक्युमुलेटरवैल्यू, फ़्लोट l1Strength, फ़्लोट l2Strength)
एक AdaGradDA ऑप्टिमाइज़र बनाता है
AdaGradDA ( ग्राफ़ ग्राफ़, स्ट्रिंग नाम, फ़्लोट लर्निंग रेट)
एक AdaGradDA ऑप्टिमाइज़र बनाता है
AdaGradDA ( ग्राफ़ ग्राफ़, स्ट्रिंग नाम, फ़्लोट लर्निंगरेट, फ़्लोट इनिशियलएक्युमुलेटरवैल्यू, फ़्लोट l1स्ट्रेंथ, फ़्लोट l2स्ट्रेंथ)
एक AdaGradDA ऑप्टिमाइज़र बनाता है

सार्वजनिक तरीके

डोरी
गेटऑप्टिमाइज़रनाम ()
अनुकूलक का नाम प्राप्त करें.
डोरी

विरासत में मिली विधियाँ

स्थिरांक

सार्वजनिक स्थैतिक अंतिम स्ट्रिंग संचायक

स्थिर मान: "gradient_accumulator"

सार्वजनिक स्थैतिक अंतिम फ़्लोट INITIAL_ACCUMULATOR_DEFAULT

स्थिर मान: 0.1

सार्वजनिक स्थैतिक अंतिम फ़्लोट L1_STRENGTH_DEFAULT

स्थिर मान: 0.0

सार्वजनिक स्थैतिक अंतिम फ़्लोट L2_STRENGTH_DEFAULT

स्थिर मान: 0.0

सार्वजनिक स्थैतिक अंतिम फ़्लोट LEARNING_RATE_DEFAULT

स्थिर मान: 0.001

सार्वजनिक स्थैतिक अंतिम स्ट्रिंग SQUARED_ACCUMULATOR

स्थिर मान: "gradient_squared_accumulator"

सार्वजनिक निर्माता

सार्वजनिक AdaGradDA ( ग्राफ़ ग्राफ़)

एक AdaGradDA ऑप्टिमाइज़र बनाता है

पैरामीटर
ग्राफ टेंसरफ़्लो ग्राफ़

सार्वजनिक AdaGradDA ( ग्राफ़ ग्राफ़, फ़्लोट लर्निंग रेट)

एक AdaGradDA ऑप्टिमाइज़र बनाता है

पैरामीटर
ग्राफ टेंसरफ़्लो ग्राफ़
सीखने की दर सीखने की दर

सार्वजनिक AdaGradDA ( ग्राफ़ ग्राफ़, फ़्लोट लर्निंग रेट, फ़्लोट इनिशियलएक्यूमुलेटर वैल्यू, फ़्लोट l1Strength, फ़्लोट l2Strength)

एक AdaGradDA ऑप्टिमाइज़र बनाता है

पैरामीटर
ग्राफ टेंसरफ़्लो ग्राफ़
सीखने की दर सीखने की दर
प्रारंभिक संचायक मान संचायकों के लिए आरंभिक मान शून्य से अधिक होना चाहिए।
एल1ताकत एल1 नियमितीकरण शक्ति, शून्य से अधिक या उसके बराबर होनी चाहिए।
एल2ताकत एल2 नियमितीकरण शक्ति, शून्य से अधिक या उसके बराबर होनी चाहिए।
फेंकता
अवैध तर्क अपवाद यदि प्रारंभिक AccumulatorValue शून्य से अधिक नहीं है, या l1Strength या l2Strength शून्य से कम है

सार्वजनिक AdaGradDA ( ग्राफ़ ग्राफ़, स्ट्रिंग नाम, फ़्लोट लर्निंग रेट)

एक AdaGradDA ऑप्टिमाइज़र बनाता है

पैरामीटर
ग्राफ टेंसरफ़्लो ग्राफ़
नाम इस ऑप्टिमाइज़र का नाम (डिफ़ॉल्ट रूप से 'एडाग्राड-दा')
सीखने की दर सीखने की दर

सार्वजनिक AdaGradDA ( ग्राफ़ ग्राफ़, स्ट्रिंग नाम, फ़्लोट लर्निंग रेट, फ़्लोट इनिशियलएक्यूमुलेटर वैल्यू, फ़्लोट l1Strength, फ़्लोट l2Strength)

एक AdaGradDA ऑप्टिमाइज़र बनाता है

पैरामीटर
ग्राफ टेंसरफ़्लो ग्राफ़
नाम इस ऑप्टिमाइज़र का नाम (डिफ़ॉल्ट रूप से 'एडाग्राड-दा')
सीखने की दर सीखने की दर
प्रारंभिक संचायक मान संचायक के लिए प्रारंभिक मूल्य सकारात्मक होना चाहिए
एल1ताकत एल1 नियमितीकरण शक्ति, शून्य से अधिक या उसके बराबर होनी चाहिए।
एल2ताकत एल2 नियमितीकरण शक्ति, शून्य से अधिक या उसके बराबर होनी चाहिए।
फेंकता
अवैध तर्क अपवाद यदि प्रारंभिक AccumulatorValue शून्य से अधिक नहीं है, या * l1Strength या l2Strength शून्य से कम है

सार्वजनिक तरीके

सार्वजनिक स्ट्रिंग getOptimizerName ()

अनुकूलक का नाम प्राप्त करें.

रिटर्न
  • अनुकूलक नाम.

सार्वजनिक स्ट्रिंग toString ()