Restez organisé à l'aide des collections Enregistrez et classez les contenus selon vos préférences.

tensorflow :: opérations :: Selu

#include <nn_ops.h>

Calcule une linéarité exponentielle mise à l' scale * alpha * (exp(features) - 1) : scale * alpha * (exp(features) - 1)

Résumé

si <0, mettre à l' scale * features cas contraire.

À utiliser avec `initializer = tf.variance_scaling_initializer (factor = 1.0, mode = 'FAN_IN') . For correct dropout, use tf.contrib.nn.alpha_dropout`.

Voir les réseaux de neurones auto-normalisés

Arguments:

Retour:

  • Output : Le tenseur des activations.

Constructeurs et destructeurs

Selu (const :: tensorflow::Scope & scope, :: tensorflow::Input features)

Attributs publics

activations
operation

Fonctions publiques

node () const
::tensorflow::Node *
operator::tensorflow::Input () const
operator::tensorflow::Output () const

Attributs publics

activations

::tensorflow::Output activations

opération

Operation operation

Fonctions publiques

Selu

 Selu(
  const ::tensorflow::Scope & scope,
  ::tensorflow::Input features
)

nœud

::tensorflow::Node * node() const 

operator :: tensorflow :: Input

 operator::tensorflow::Input() const 

operator :: tensorflow :: Output

 operator::tensorflow::Output() const