このページは Cloud Translation API によって翻訳されました。
Switch to English

tf.keras.layers.LeakyReLU

TensorFlow 1つのバージョン GitHubの上のソースを表示

整流リニアユニットの漏洩バージョン。

:から継承Layer

ノートPCで使用されます

ガイドで使用チュートリアルで使用されます

ユニットがアクティブでない場合には、小さな勾配を可能にします。

   f(x) = alpha * x if x < 0
  f(x) = x if x >= 0
 

使用法:

layer = tf.keras.layers.LeakyReLU()
output = layer([-3.0, -1.0, 0.0, 2.0])
list(output.numpy())
[-0.9, -0.3, 0.0, 2.0]
layer = tf.keras.layers.LeakyReLU(alpha=0.1)
output = layer([-3.0, -1.0, 0.0, 2.0])
list(output.numpy())
[-0.3, -0.1, 0.0, 2.0]

入力形状:

任意。キーワード引数使用input_shapeモデルの最初の層と、この層を使用する場合(整数のタプルを、バッチの軸が含まれていません)。

出力形状:

入力と同じ形状。

alpha フロート> = 0負の傾き係数。 0.3にデフォルト。