flux tensoriel : : opérations : : Sélu

#include <nn_ops.h>

Calcule une exponentielle linéaire à l'échelle : scale * alpha * (exp(features) - 1)

Résumé

si <0, scale * features sinon.

À utiliser avec `initializer = tf.variance_scaling_initializer(factor=1.0, mode='FAN_IN') . For correct dropout, use tf.contrib.nn.alpha_dropout`.

Voir les réseaux de neurones auto-normalisés

Arguments:

  • scope : un objet Scope

Retour:

  • Output : Le tenseur des activations.

Constructeurs et Destructeurs

Selu (const :: tensorflow::Scope & scope, :: tensorflow::Input features)

Attributs publics

activations
operation

Fonctions publiques

node () const
::tensorflow::Node *
operator::tensorflow::Input () const
operator::tensorflow::Output () const

Attributs publics

activations

::tensorflow::Output activations

opération

Operation operation

Fonctions publiques

Sélu

 Selu(
  const ::tensorflow::Scope & scope,
  ::tensorflow::Input features
)

nœud

::tensorflow::Node * node() const 

opérateur :: tensorflow :: Entrée

 operator::tensorflow::Input() const 

opérateur :: tensorflow :: Sortie

 operator::tensorflow::Output() const