AdaGradDA

パブリック クラスAdaGradDA

Adagrad Dual-Averaging アルゴリズムを実装するオプティマイザー。

このオプティマイザーは、ミニバッチ内の未表示のフィーチャーの正規化を処理します。これは、ミニバッチごとにフィーチャーを更新するのと同等の、閉じた形式の更新ルールでフィーチャーが検出されたときに更新することによって行われます。

AdagradDA は通常、トレーニングされたモデルに大きなスパース性が必要な場合に使用されます。このオプティマイザーは、線形モデルのスパース性のみを保証します。 AdagradDA をディープ ネットワークに使用する場合は、トレーニングのために勾配アキュムレータを慎重に初期化する必要があるため、注意してください。

定数

アキュムレータ
浮くINITIAL_ACCUMULATOR_DEFAULT
浮くL1_STRENGTH_DEFAULT
浮くL2_STRENGTH_DEFAULT
浮く学習_レート_デフォルト
SQUARED_ACCUMULATOR

継承された定数

パブリックコンストラクター

AdaGradDA (グラフグラフ)
AdaGradDA オプティマイザーを作成します
AdaGradDA (グラフグラフ、浮動小数点学習率)
AdaGradDA オプティマイザーを作成します
AdaGradDA ( Graphグラフ、float learningRate、floatInitialAccumulatorValue、float l1Strength、float l2Strength)
AdaGradDA オプティマイザーを作成します
AdaGradDA (グラフグラフ、文字列名、浮動小数点学習率)
AdaGradDA オプティマイザーを作成します
AdaGradDA (グラフグラフ、文字列名、float learningRate、floatInitialAccumulatorValue、float l1Strength、float l2Strength)
AdaGradDA オプティマイザーを作成します

パブリックメソッド

getOptimizerName ()
オプティマイザーの名前を取得します。

継承されたメソッド

定数

public static Final String ACCUMULATOR

定数値: "gradient_accumulator"

パブリック静的最終フロートINITIAL_ACCUMULATOR_DEFAULT

定数値: 0.1

パブリック静的最終フロートL1_STRENGTH_DEFAULT

定数値: 0.0

パブリック静的最終フロートL2_STRENGTH_DEFAULT

定数値: 0.0

パブリック静的最終フロートLEARNING_RATE_DEFAULT

定数値: 0.001

パブリック静的最終文字列SQUARED_ACCUMULATOR

定数値: "gradient_squared_accumulator"

パブリックコンストラクター

public AdaGradDA (グラフグラフ)

AdaGradDA オプティマイザーを作成します

パラメーター
グラフTensorFlow グラフ

public AdaGradDA ( Graphグラフ、float learningRate)

AdaGradDA オプティマイザーを作成します

パラメーター
グラフTensorFlow グラフ
学習率学習率

public AdaGradDA ( Graphグラフ、float learningRate、floatInitialAccumulatorValue、float l1Strength、float l2Strength)

AdaGradDA オプティマイザーを作成します

パラメーター
グラフTensorFlow グラフ
学習率学習率
初期アキュムレータ値アキュムレータの開始値はゼロより大きくなければなりません。
l1強さl1 正則化強度は 0 以上である必要があります。
l2強さl2 正則化強度は 0 以上である必要があります。
投げる
IllegalArgumentException InitialAccumulatorValue がゼロ以下の場合、または l1Strength または l2Strength がゼロ未満の場合

public AdaGradDA (グラフグラフ、文字列名、float learningRate)

AdaGradDA オプティマイザーを作成します

パラメーター
グラフTensorFlow グラフ
名前このオプティマイザーの名前 (デフォルトは「adagrad-da」)
学習率学習率

public AdaGradDA (グラフグラフ、文字列名、float learningRate、floatInitialAccumulatorValue、float l1Strength、float l2Strength)

AdaGradDA オプティマイザーを作成します

パラメーター
グラフTensorFlow グラフ
名前このオプティマイザーの名前 (デフォルトは「adagrad-da」)
学習率学習率
初期アキュムレータ値アキュムレータの開始値は正である必要があります
l1強さl1 正則化強度は 0 以上である必要があります。
l2強さl2 正則化強度は 0 以上である必要があります。
投げる
IllegalArgumentException InitialAccumulatorValue がゼロ以下の場合、または * l1Strength または l2Strength がゼロ未満の場合

パブリックメソッド

public String getOptimizerName ()

オプティマイザーの名前を取得します。

戻り値
  • オプティマイザーの名前。

public String toString ()