Selu

सार्वजनिक अंतिम वर्ग सेलु

स्केल किए गए घातीय रैखिक की गणना करता है: `स्केल * अल्फा * (एक्सपी (फीचर्स) - 1)`

यदि < 0, अन्यथा `स्केल * फीचर्स`।

`इनिशियलाइज़र = tf.variance_scaleing_initializer(factor=1.0, mode='FAN_IN')` के साथ एक साथ उपयोग किया जाना है। सही ड्रॉपआउट के लिए, `tf.contrib.nn.alpha_dropout` का उपयोग करें।

देखें [स्व-सामान्यीकरण तंत्रिका नेटवर्क](https://arxiv.org/abs/1706.02515)

स्थिरांक

डोरी OP_NAME इस ऑप का नाम, जैसा कि TensorFlow कोर इंजन द्वारा जाना जाता है

सार्वजनिक तरीके

आउटपुट <T>
आउटपुट <T>
आउटपुट के रूप में ()
टेंसर का प्रतीकात्मक हैंडल लौटाता है।
स्थिर <T TNumber > Selu <T> का विस्तार करता है
बनाएँ ( स्कोप स्कोप, ऑपरेंड <टी> सुविधाएँ)
एक नए सेलू ऑपरेशन को लपेटकर एक क्लास बनाने की फ़ैक्टरी विधि।

विरासत में मिली विधियाँ

स्थिरांक

सार्वजनिक स्थैतिक अंतिम स्ट्रिंग OP_NAME

इस ऑप का नाम, जैसा कि TensorFlow कोर इंजन द्वारा जाना जाता है

स्थिर मान: "सेलु"

सार्वजनिक तरीके

सार्वजनिक आउटपुट <T> सक्रियण ()

सार्वजनिक आउटपुट <T> asOutput ()

टेंसर का प्रतीकात्मक हैंडल लौटाता है।

TensorFlow संचालन के इनपुट किसी अन्य TensorFlow ऑपरेशन के आउटपुट हैं। इस पद्धति का उपयोग एक प्रतीकात्मक हैंडल प्राप्त करने के लिए किया जाता है जो इनपुट की गणना का प्रतिनिधित्व करता है।

सार्वजनिक स्थैतिक सेलु <T> बनाएं ( स्कोप स्कोप, ऑपरेंड <T> सुविधाएँ)

एक नए सेलू ऑपरेशन को लपेटकर एक क्लास बनाने की फ़ैक्टरी विधि।

पैरामीटर
दायरा वर्तमान दायरा
रिटर्न
  • सेलू का एक नया उदाहरण