tensorflow :: opérations :: Selu
#include <nn_ops.h>
Calcule une linéarité exponentielle mise à l' scale * alpha * (exp(features) - 1)
: scale * alpha * (exp(features) - 1)
Résumé
si <0, mettre à l' scale * features
cas contraire.
À utiliser avec `initializer = tf.variance_scaling_initializer (factor = 1.0, mode = 'FAN_IN') . For correct dropout, use
tf.contrib.nn.alpha_dropout`.
Voir les réseaux de neurones auto-normalisés
Arguments:
- scope: un objet Scope
Retour:
-
Output
: Le tenseur des activations.
Constructeurs et destructeurs | |
---|---|
Selu (const :: tensorflow::Scope & scope, :: tensorflow::Input features) |
Attributs publics | |
---|---|
activations | |
operation |
Fonctions publiques | |
---|---|
node () const | ::tensorflow::Node * |
operator::tensorflow::Input () const | |
operator::tensorflow::Output () const |
Attributs publics
activations
::tensorflow::Output activations
opération
Operation operation
Fonctions publiques
Selu
Selu( const ::tensorflow::Scope & scope, ::tensorflow::Input features )
nœud
::tensorflow::Node * node() const
operator :: tensorflow :: Input
operator::tensorflow::Input() const
operator :: tensorflow :: Output
operator::tensorflow::Output() const