Tensorflow :: ops :: Selu
#include <nn_ops.h>
Berechnet skalierte exponentielle lineare: scale * alpha * (exp(features) - 1)
Zusammenfassung
Wenn <0, scale * features
anders.
Zur Verwendung zusammen mit `initializer = tf.variance_scaling_initializer (Faktor = 1.0, mode = 'FAN_IN') . For correct dropout, use
Sie . For correct dropout, use
tf.contrib.nn.alpha_dropout`.
Siehe Selbstnormalisierende neuronale Netze
Argumente:
- scope: Ein Scope- Objekt
Kehrt zurück:
-
Output
: Der Aktivierungstensor.
Konstruktoren und Destruktoren | |
---|---|
Selu (const :: tensorflow::Scope & scope, :: tensorflow::Input features) |
Öffentliche Attribute | |
---|---|
activations | |
operation |
Öffentliche Funktionen | |
---|---|
node () const | ::tensorflow::Node * |
operator::tensorflow::Input () const | |
operator::tensorflow::Output () const |
Öffentliche Attribute
Aktivierungen
::tensorflow::Output activations
Operation
Operation operation
Öffentliche Funktionen
Selu
Selu( const ::tensorflow::Scope & scope, ::tensorflow::Input features )
Knoten
::tensorflow::Node * node() const
operator :: tensorflow :: Input
operator::tensorflow::Input() const
operator :: tensorflow :: Output
operator::tensorflow::Output() const