ReLU

パブリッククラスReLU

Rectified Linear Unit(ReLU)のアクティベーション。

デフォルト値を使用すると、標準の ReLU アクティベーション: max(x, 0) 、要素ごとの最大値 0 および入力テンソルが返されます。

デフォルトのパラメータを変更すると、ゼロ以外のしきい値を使用したり、アクティベーションの最大値を変更したり、しきい値を下回る値に入力のゼロ以外の倍数を使用したりすることができます。

例:

     Operand<TFloat32> input = tf.constant(
              new float[] {-10f, -5f, 0.0f, 5f, 10f});

     // With default parameters
     ReLU<TFloat32> relu = new ReLU<>(tf);
     Operand<TFloat32> result = relu.call(input);
     // result is [0.f,  0.f,  0.f,  5.f, 10.f]

     // With alpha = 0.5
     relu = new ReLU<>(tf, 0.5f, ReLU.MAX_VALUE_DEFAULT, ReLU.THRESHOLD_DEFAULT);
     result = relu.call(input);
     // result is [-5.f , -2.5f,  0.f ,  5.f , 10.f]

     // With maxValue = 5
     relu = new ReLU<>(tf, ReLU.ALPHA_DEFAULT, 5f, ReLU.THRESHOLD_DEFAULT);
     result = relu.call(input);
     // result is [0.f, 0.f, 0.f, 5.f, 5.f]

     // With threshold = 5
     relu = new ReLU<>(tf, ReLU.ALPHA_DEFAULT, ReLU.MAX_VALUE_DEFAULT, 5f);
     result = relu.call(input);
     // result is [-0.f, -0.f,  0.f,  0.f, 10.f]
 

定数

浮くALPHA_DEFAULT
浮くMAX_VALUE_DEFAULT
浮くTHRESHOLD_DEFAULT

パブリックコンストラクター

ReLU (Ops tf)
alpha= ALPHA_DEFAULT 、 maxValue= MAX_VALUE_DEFAULT 、threshold= THRESHOLD_DEFAULTを使用して新しい ReLU を作成します。
ReLU (Ops tf、float alpha、float maxValue、float しきい値)
新しい ReLU を作成します

パブリックメソッド

オペランド<T>
call (オペランド<T>入力)
アクティベーションのための計算演算を取得します。

継承されたメソッド

定数

パブリック静的最終フロートALPHA_DEFAULT

定数値: 0.0

パブリック静的最終浮動小数点数MAX_VALUE_DEFAULT

定数値: NaN

パブリック静的最終フロートTHRESHOLD_DEFAULT

定数値: 0.0

パブリックコンストラクター

パブリックReLU (Ops tf)

alpha= ALPHA_DEFAULT 、 maxValue= MAX_VALUE_DEFAULT 、threshold= THRESHOLD_DEFAULTを使用して新しい ReLU を作成します。

パラメーター
TF TensorFlow オペレーション

public ReLU (Ops tf、float alpha、float maxValue、float しきい値)

新しい ReLU を作成します

パラメーター
TF TensorFlow オペレーション
アルファしきい値よりも低い値の傾きを制御します。
最大値飽和しきい値 (関数が返す最大値) を設定します。
しきい値活性化関数のしきい値。このしきい値を下回ると値が減衰されるかゼロに設定されます。

パブリックメソッド

publicオペランド<T>呼び出し(オペランド<T> 入力)

アクティベーションのための計算演算を取得します。

パラメーター
入力入力テンソル
戻り値
  • アクティブ化のオペランド