このページは Cloud Translation API によって翻訳されました。
Switch to English

tf.keras.activations.sigmoid

TensorFlow 1つのバージョン GitHubの上のソースを表示

シグモイド活性化関数、 sigmoid(x) = 1 / (1 + exp(-x))

シグモイド活性化関数を適用します。小さな値の場合(<-5)、 sigmoid戻り値ゼロに近い、大きな値のため(> 5)関数の結果は、1に近いなります。

シグモイドは、第二の要素がゼロであると仮定される2要素ソフトマックス、と等価です。シグモイド関数は、常に0と1の間の値を返します。

例えば:

a = tf.constant([-20, -1.0, 0.0, 1.0, 20], dtype = tf.float32)
b = tf.keras.activations.sigmoid(a)
b.numpy()
array([2.0611537e-09, 2.6894143e-01, 5.0000000e-01, 7.3105860e-01,
         1.0000000e+00], dtype=float32)

x 入力テンソル。

シグモイド活性化テンソル: 1 / (1 + exp(-x))