SELU

classe publique SELU

Unité linéaire exponentielle mise à l'échelle (SELU).

La fonction d'activation de l'unité linéaire exponentielle à l'échelle (SELU) est définie comme :

  • if x > 0: return scale * x
  • if x < 0: return scale * alpha * (exp(x) - 1)

alpha et scale sont des constantes prédéfinies ( alpha=1.67326324 et scale=1.05070098 ).

Fondamentalement, la fonction d'activation SELU multiplie scale (> 1) avec la sortie de la fonction elu pour garantir une pente supérieure à un pour les entrées positives.

Les valeurs d' alpha et scale sont choisies de manière à ce que la moyenne et la variance des entrées soient préservées entre deux couches consécutives tant que les poids sont initialisés correctement (voir LeCun avec distribution normale) et que le nombre d'unités d'entrée est "assez grand".

Remarques : à utiliser avec l'initialiseur LeCun avec distribution normale.

Voir également

Constructeurs Publics

SELU (Ops tf)
Crée une activation d'unité linéaire exponentielle à l'échelle (SELU).

Méthodes publiques

Opérande <T>
appel (entrée opérande <T>)
Obtient l’opération de calcul pour l’activation.

Méthodes héritées

Constructeurs Publics

SELU public (Ops tf)

Crée une activation d'unité linéaire exponentielle à l'échelle (SELU).

Paramètres
tf les opérations TensorFlow

Méthodes publiques

Appel d'opérande public <T> (entrée d'opérande <T>)

Obtient l’opération de calcul pour l’activation.

Paramètres
saisir le tenseur d'entrée
Retour
  • L'opérande d'activation