このページは Cloud Translation API によって翻訳されました。
Switch to English

tf.keras.activations.swish

GitHubの上のソースを表示

スウィッシュ活性化関数、 swish(x) = x * sigmoid(x)

戻ってスウィッシュ活性化関数x*sigmoid(x)それは、上記無限上下境界で、一貫して深いネットワークに一致するかReLUより優れていることを平滑、非単調関数です。

使用例:

a = tf.constant([-20, -1.0, 0.0, 1.0, 20], dtype = tf.float32)
b = tf.keras.activations.swish(a)
b.numpy()
array([-4.1223075e-08, -2.6894143e-01,  0.0000000e+00,  7.3105860e-01,
          2.0000000e+01], dtype=float32)

x 入力テンソル。

スウィッシュ活性化に適用されるx (詳細は基準紙を参照します)。

参照: