Cette page a été traduite par l'API Cloud Translation.
Switch to English

Module: tf.keras.activations

plus par

Tensorflow 1 Version

fonctions d'activation intégrée.

Les fonctions

deserialize(...) : fonction d'activation de retour reçoit un identificateur de chaîne.

elu(...) : Exponentielle Unité linéaire.

exponential(...) : fonction d'activation exponentielle.

get(...) : la fonction retourne.

hard_sigmoid(...) : la fonction d'activation de dur.

linear(...) : fonction d'activation linéaire (pass-through).

relu(...) : applique la fonction d'activation de l' unité linéaire redressée.

selu(...) : Unité de mesure linéaire Scaled Exponentielle (SELU).

serialize(...) : renvoie l'identificateur de chaîne d'une fonction d'activation.

sigmoid(...) : fonction d'activation sigmoïde, sigmoid(x) = 1 / (1 + exp(-x)) .

softmax(...) : Softmax convertit un vecteur réel à un vecteur de probabilités catégoriques.

softplus(...) : fonction d'activation SoftPlus, softplus(x) = log(exp(x) + 1) .

softsign(...) : fonction d'activation Softsign, softsign(x) = x / (abs(x) + 1) .

swish(...) : fonction d'activation Swish, swish(x) = x * sigmoid(x) .

tanh(...) : hyperbolique fonction d'activation de la tangente.