このページは Cloud Translation API によって翻訳されました。
Switch to English

tf.keras.activations.softplus

TensorFlow 1つのバージョン GitHubの上のソースを表示

Softplus活性化関数、 softplus(x) = log(exp(x) + 1)

使用例:

a = tf.constant([-20, -1.0, 0.0, 1.0, 20], dtype = tf.float32)
b = tf.keras.activations.softplus(a)
b.numpy()
array([2.0611537e-09, 3.1326166e-01, 6.9314718e-01, 1.3132616e+00,
         2.0000000e+01], dtype=float32)

x 入力テンソル。

softplus活性化: log(exp(x) + 1)