このページは Cloud Translation API によって翻訳されました。
Switch to English

tf.keras.activations.relu

TensorFlow 1つのバージョン GitHubの上のソースを表示

整流された線状部の活性化関数を適用します。

デフォルト値を使用して、この戻り標準ReLU活性化: max(x, 0) 、0の要素ごとの最大入力テンソル。

デフォルトのパラメータを変更すると、あなたは、ゼロ以外のしきい値を使用する活性化の最大値を変更し、しきい値以下の値の入力のゼロ以外の複数を使用することができるようになります。

例えば:

foo = tf.constant([-10, -5, 0.0, 5, 10], dtype = tf.float32)
tf.keras.activations.relu(foo).numpy()
array([ 0.,  0.,  0.,  5., 10.], dtype=float32)
tf.keras.activations.relu(foo, alpha=0.5).numpy()
array([-5. , -2.5,  0. ,  5. , 10. ], dtype=float32)
tf.keras.activations.relu(foo, max_value=5).numpy()
array([0., 0., 0., 5., 5.], dtype=float32)
tf.keras.activations.relu(foo, threshold=5).numpy()
array([-0., -0.,  0.,  0., 10.], dtype=float32)

x 入力tensorまたはvariable
alpha float閾値より低い値に対して傾きを司ります。
max_value float飽和閾値(関数が返す最大値)を設定します。
threshold float値は、減衰またはゼロに設定されるの下に活性化関数の閾値を与えます。

A Tensor relu活性化機能によって変換された入力テンソルを表します。テンソルは、入力の同一の形状とDTYPEであろうx