このページは Cloud Translation API によって翻訳されました。
Switch to English

tf.keras.activations.hard_sigmoid

TensorFlow 1つのバージョン GitHubの上のソースを表示

ハードシグモイド活性化関数。

シグモイド活性化の速い近似。

例えば:

a = tf.constant([-3.0,-1.0, 0.0,1.0,3.0], dtype = tf.float32)
b = tf.keras.activations.hard_sigmoid(a)
b.numpy()
array([0. , 0.3, 0.5, 0.7, 1. ], dtype=float32)

x 入力テンソル。

ハードシグモイド活性化、次のように定義されます。

  • if x < -2.5: return 0
  • if x > 2.5: return 1
  • if -2.5 <= x <= 2.5: return 0.2 * x + 0.5