Ftrl

パブリック クラスFtrl

FTRL アルゴリズムを実装するオプティマイザー。

このバージョンでは、オンライン L2 (以下の論文で示されている L2 ペナルティ) と縮小タイプ L2 (損失関数への L2 ペナルティの追加) の両方がサポートされています。

定数

アキュムレータ
浮くINITIAL_ACCUMULATOR_VALUE_DEFAULT
浮くL1STRENGTH_DEFAULT
浮くL2STRENGTH_DEFAULT
浮くL2_SHRINKAGE_REGULARIZATION_STRENGTH_DEFAULT
浮く学習_レート_デフォルト
浮くLEARNING_RATE_POWER_DEFAULT
LINEAR_ACCUMULATOR

継承された定数

パブリックコンストラクター

Ftrl (グラフグラフ)
Ftrl オプティマイザーを作成します
Ftrl (グラフグラフ、文字列名)
Ftrl オプティマイザーを作成します
Ftrl ( Graphグラフ、float learningRate)
Ftrl オプティマイザーを作成します
Ftrl (グラフグラフ、文字列名、浮動小数点learningRate)
Ftrl オプティマイザーを作成します
Ftrl (グラフグラフ、float learningRate、float learningRatePower、floatInitialAccumulatorValue、float l1Strength、float l2Strength、float l2Shrinkage RegularizationStrength)
Ftrl オプティマイザーを作成します
Ftrl (グラフグラフ、文字列名、float learningRate、float learningRatePower、floatInitialAccumulatorValue、float l1Strength、float l2Strength、float l2Shrinkage RegularizationStrength)
Ftrl オプティマイザーを作成します

パブリックメソッド

getOptimizerName ()
オプティマイザーの名前を取得します。

継承されたメソッド

定数

public static Final String ACCUMULATOR

定数値: "gradient_accumulator"

パブリック静的最終フロートINITIAL_ACCUMULATOR_VALUE_DEFAULT

定数値: 0.1

パブリック静的最終フロートL1STRENGTH_DEFAULT

定数値: 0.0

パブリック静的最終フロートL2STRENGTH_DEFAULT

定数値: 0.0

パブリック静的最終フロートL2_SHRINKAGE_REGULARIZATION_STRENGTH_DEFAULT

定数値: 0.0

パブリック静的最終フロートLEARNING_RATE_DEFAULT

定数値: 0.001

パブリック静的最終フロートLEARNING_RATE_POWER_DEFAULT

定数値: -0.5

パブリック静的最終文字列LINEAR_ACCUMULATOR

定数値: "linear_accumulator"

パブリックコンストラクター

public Ftrl (グラフグラフ)

Ftrl オプティマイザーを作成します

パラメーター
グラフTensorFlow グラフ

public Ftrl (グラフグラフ、文字列名)

Ftrl オプティマイザーを作成します

パラメーター
グラフTensorFlow グラフ
名前このオプティマイザーの名前

public Ftrl ( Graphグラフ、float learningRate)

Ftrl オプティマイザーを作成します

パラメーター
グラフTensorFlow グラフ
学習率学習率

public Ftrl (グラフグラフ、文字列名、float learningRate)

Ftrl オプティマイザーを作成します

パラメーター
グラフTensorFlow グラフ
名前このオプティマイザーの名前
学習率学習率

public Ftrl (グラフグラフ、float learningRate、float learningRatePower、floatInitialAccumulatorValue、float l1Strength、float l2Strength、float l2Shrinkage RegularizationStrength)

Ftrl オプティマイザーを作成します

パラメーター
グラフTensorFlow グラフ
学習率学習率
学習速度電力トレーニング中に学習率がどのように低下​​するかを制御します。固定学習率にはゼロを使用します。
初期アキュムレータ値アキュムレータの開始値。ゼロまたは正の値のみが許可されます。
l1強さL1 正則化の強度は 0 以上である必要があります。
l2強さL2 正則化の強度は 0 以上である必要があります。
l2収縮正則化強度これは、上の L2 が安定化ペナルティであるのに対し、この L2 の縮小は大きさペナルティであるという点で、上の L2 とは異なります。ゼロ以上である必要があります。
投げる
IllegalArgumentException InitialAccumulatorValue、l1 RegularizationStrength、l2 RegularizationStrength、または l2Shrinkage RegularizationStrength が 0.0 未満であるか、learningRatePower が 0.0 より大きい場合。

public Ftrl (グラフグラフ、文字列名、float learningRate、float learningRatePower、floatInitialAccumulatorValue、float l1Strength、float l2Strength、float l2Shrinkage RegularizationStrength)

Ftrl オプティマイザーを作成します

パラメーター
グラフTensorFlow グラフ
名前このオプティマイザーの名前
学習率学習率
学習速度電力トレーニング中に学習率がどのように低下​​するかを制御します。固定学習率にはゼロを使用します。
初期アキュムレータ値アキュムレータの開始値。ゼロまたは正の値のみが許可されます。
l1強さL1 正則化の強度は 0 以上である必要があります。
l2強さL2 正則化の強度は 0 以上である必要があります。
l2収縮正則化強度これは、上の L2 が安定化ペナルティであるのに対し、この L2 の縮小は大きさペナルティであるという点で、上の L2 とは異なります。ゼロ以上である必要があります。
投げる
IllegalArgumentException InitialAccumulatorValue、l1 RegularizationStrength、l2 RegularizationStrength、または l2Shrinkage RegularizationStrength が 0.0 未満であるか、learningRatePower が 0.0 より大きい場合。

パブリックメソッド

public String getOptimizerName ()

オプティマイザーの名前を取得します。

戻り値
  • オプティマイザーの名前。