パブリッククラスのアダム
Adam アルゴリズムを実装するオプティマイザー。
Adam 最適化は、一次および二次モーメントの適応推定に基づく確率的勾配降下法です。
Kingma et al., 2014 によると、この方法は「計算効率が高く、メモリ要件がほとんどなく、勾配の対角再スケーリングに対して不変であり、データ/パラメーターの点で大きな問題に適している」とのことです。
@Kingma et al.、2014、Adam: A Method for Stochastic Optimization を参照してください。
定数
継承された定数
パブリックコンストラクター
パブリックメソッド
static <T extends TType > Op | createAdamMinimize (スコープscope、オペランド<T>損失、float learningRate、float betaOne、float betaTwo、float epsilon、 Options...オプション) 損失を最小限に抑えるオペレーションを作成します |
弦 | getOptimizerName () オプティマイザーの名前を取得します。 |
弦 | toString () |
継承されたメソッド
オペ | |
<T extends TType > List< GradAndVar <?>> | |
静的文字列 | |
抽象文字列 | getOptimizerName () オプティマイザーの名前を取得します。 |
<T extends TType > オプション<変数<T>> | |
最終作戦 | getTF () オプティマイザーの Ops インスタンスを取得します |
オペ | |
オペ |
ブール値 | 等しい(オブジェクト arg0) |
最終クラス<?> | getクラス() |
整数 | ハッシュコード() |
最後の空白 | 通知する() |
最後の空白 | すべて通知() |
弦 | toString () |
最後の空白 | wait (long arg0, int arg1) |
最後の空白 | 待機(長い引数0) |
最後の空白 | 待って() |
定数
パブリック静的最終フロートBETA_ONE_DEFAULT
定数値: 0.9
パブリック静的最終フロートBETA_TWO_DEFAULT
定数値: 0.999
パブリック静的最終フロートEPSILON_DEFAULT
定数値: 1.0E-8
パブリック静的最終文字列FIRST_MOMENT
定数値: 「m」
パブリック静的最終フロートLEARNING_RATE_DEFAULT
定数値: 0.001
パブリック静的最終文字列SECOND_MOMENT
定数値: "v"
パブリックコンストラクター
public Adam ( Graphグラフ、float learningRate、float betaOne、float betaTwo、float epsilon)
Adam オプティマイザーを作成します
パラメーター
グラフ | TensorFlow グラフ |
---|---|
学習率 | 学習率 |
ベータワン | 最初の瞬間の推定値の指数関数的減衰率。デフォルトは 0.9 です。 |
ベータツー | 2 次モーメント推定の指数関数的減衰率。デフォルトは 0.999 です。 |
イプシロン | 数値安定性のための小さな定数。このイプシロンは、Kingma と Ba の論文 (セクション 2.1 の直前の式) では「イプシロン ハット」であり、論文のアルゴリズム 1 のイプシロンではありません。デフォルトは 1e-8 です。 |
public Adam (グラフグラフ、文字列名、浮動小数点学習率)
Adam オプティマイザーを作成します
パラメーター
グラフ | TensorFlow グラフ |
---|---|
名前 | オプティマイザー名、デフォルトは「Adam」 |
学習率 | 学習率 |
public Adam ( Graphグラフ、文字列名、float learningRate、float betaOne、float betaTwo、float epsilon)
Adam オプティマイザーを作成します
パラメーター
グラフ | TensorFlow グラフ |
---|---|
名前 | オプティマイザー名、デフォルトは「Adam」 |
学習率 | 学習率 |
ベータワン | 最初の瞬間の推定値の指数関数的減衰率。デフォルトは 0.9 です。 |
ベータツー | 2 次モーメント推定の指数関数的減衰率。デフォルトは 0.999 です。 |
イプシロン | 数値安定性のための小さな定数。このイプシロンは、Kingma と Ba の論文 (セクション 2.1 の直前の式) では「イプシロン ハット」であり、論文のアルゴリズム 1 のイプシロンではありません。デフォルトは 1e-8 です。 |
パブリックメソッド
public static Op createAdamMinimize (スコープscope、オペランド<T>損失、float learningRate、float betaOne、float betaTwo、float epsilon、 Options...オプション)
損失を最小限に抑えるオペレーションを作成します
パラメーター
範囲 | TensorFlow スコープ |
---|---|
損失 | 最小限に抑える損失 |
学習率 | 学習率 |
ベータワン | 最初の瞬間の推定値の指数関数的減衰率。 |
ベータツー | 2 次モーメント推定の指数関数的減衰率。 |
イプシロン | 数値安定性のための小さな定数。このイプシロンは、Kingma と Ba の論文 (セクション 2.1 の直前の式) では「イプシロン ハット」であり、論文のアルゴリズム 1 のイプシロンではありません。 |
オプション | オプションのオプティマイザー属性 |
戻り値
- 損失を最小限に抑える運用
投げる
IllegalArgumentException | スコープがグラフを表さない場合 |
---|
public String getOptimizerName ()
オプティマイザーの名前を取得します。
戻り値
- オプティマイザーの名前。