Cette page a été traduite par l'API Cloud Translation.
Switch to English

tf.keras.activations.softplus

Tensorflow 1 Version Voir la source sur GitHub

Fonction d'activation softplus, softplus(x) = log(exp(x) + 1) .

Exemple d'utilisation:

a = tf.constant([-20, -1.0, 0.0, 1.0, 20], dtype = tf.float32)
b = tf.keras.activations.softplus(a)
b.numpy()
array([2.0611537e-09, 3.1326166e-01, 6.9314718e-01, 1.3132616e+00,
         2.0000000e+01], dtype=float32)

x tenseur d'entrée.

L'activation softplus: log(exp(x) + 1) .