tensorflow :: ops :: Selu
#include <nn_ops.h>
Oblicza skalowane wykładnicze liniowe: scale * alpha * (exp(features) - 1)
streszczenie
jeśli <0, scale * features
inaczej.
Do użycia razem z `initializer = tf.variance_scaling_initializer (współczynnik = 1.0, tryb = 'FAN_IN') . For correct dropout, use
tf.contrib.nn.alpha_dropout`.
Zobacz samonormalizujące się sieci neuronowe
Argumenty:
- zakres: obiekt Scope
Zwroty:
-
Output
: tensor aktywacji.
Konstruktorzy i niszczyciele | |
---|---|
Selu (const :: tensorflow::Scope & scope, :: tensorflow::Input features) |
Atrybuty publiczne | |
---|---|
activations | |
operation |
Funkcje publiczne | |
---|---|
node () const | ::tensorflow::Node * |
operator::tensorflow::Input () const | |
operator::tensorflow::Output () const |
Atrybuty publiczne
aktywacje
::tensorflow::Output activations
operacja
Operation operation
Funkcje publiczne
Selu
Selu( const ::tensorflow::Scope & scope, ::tensorflow::Input features )
węzeł
::tensorflow::Node * node() const
operator :: tensorflow :: Input
operator::tensorflow::Input() const
operator :: tensorflow :: Output
operator::tensorflow::Output() const