ELU

パブリッククラスELU

指数線形単位。

alpha > 0の指数線形単位 (ELU) は次のとおりです。

x > 0の場合はxx < 0の場合はalpha * (exp(x) - 1)

ELU ハイパーパラメータalpha負のネット入力に対して ELU が飽和する値を制御します。 ELU は、勾配消失効果を軽減します。

ELU は負の値を持ち、アクティベーションの平均がゼロに近づきます。平均活性化がゼロに近づくと、勾配が自然な勾配に近づくため、より高速な学習が可能になります。 ELU は、引数が小さくなると負の値に飽和します。飽和とは、変動と次の層に伝播される情報を減少させる小さな導関数を意味します。

使用例:

     Operand<TFloat32> input = ...;
     ELU<TFloat32> elu = new ELU<>(tf, 2.0f);
     Operand<TFloat32> result = elu.call(input);
 

パブリックコンストラクター

ELU (運用TF)
alpha= ERROR(/#ALPHA_DEFAULT)を使用して新しい ELU を作成します。
ELU (Ops tf、ダブルアルファ)
新しいELUを作成します

パブリックメソッド

オペランド<T>
call (オペランド<T>入力)
アクティベーションのための計算演算を取得します。

継承されたメソッド

パブリックコンストラクター

パブリックELU (Ops tf)

alpha= ERROR(/#ALPHA_DEFAULT)を使用して新しい ELU を作成します。

パラメーター
TF TensorFlow オペレーション

パブリックELU (Ops tf、ダブル アルファ)

新しいELUを作成します

パラメーター
TF TensorFlow オペレーション
アルファスカラー、負のセクションの傾き。これは、負の正味入力に対して ELU が飽和する値を制御します。

パブリックメソッド

publicオペランド<T>呼び出し(オペランド<T> 入力)

アクティベーションのための計算演算を取得します。

パラメーター
入力入力テンソル
戻り値
  • アクティブ化のオペランド