パブリック最終クラスSparseApplyAdagradV2
adagrad スキームに従って、「*var」および「*accum」内の関連エントリを更新します。
つまり、grad がある行については、次のように var と accum を更新します。
$$accum += grad * grad$$
$$var -= lr * grad * (1 / sqrt(accum))$$
ネストされたクラス
クラス | SparseApplyAdagradV2.オプション | SparseApplyAdagradV2 のオプションの属性 |
パブリックメソッド
出力<T> | asOutput () テンソルのシンボリック ハンドルを返します。 |
static <T, U extends Number> SparseApplyAdagradV2 <T> | |
出力<T> | 外() 「var」と同じです。 |
静的SparseApplyAdagradV2.Options | updateSlots (ブール値の updateSlots) |
静的SparseApplyAdagradV2.Options | useLocking (ブール型 useLocking) |
継承されたメソッド
パブリックメソッド
public Output <T> asOutput ()
テンソルのシンボリック ハンドルを返します。
TensorFlow オペレーションへの入力は、別の TensorFlow オペレーションの出力です。このメソッドは、入力の計算を表すシンボリック ハンドルを取得するために使用されます。
public static SparseApplyAdagradV2 <T> create (スコープscope、オペランド<T> var、オペランド<T> accum、オペランド<T> lr、オペランド<T> epsilon、オペランド<T> grad、オペランド<U> インデックス、オプション.. .オプション)
新しい SparseApplyAdagradV2 オペレーションをラップするクラスを作成するためのファクトリ メソッド。
パラメーター
範囲 | 現在のスコープ |
---|---|
変数 | Variable() から取得する必要があります。 |
蓄積 | Variable() から取得する必要があります。 |
lr | 学習率。スカラーでなければなりません。 |
イプシロン | 定数係数。スカラーでなければなりません。 |
卒業生 | グラデーション。 |
インデックス | var と accum の最初の次元へのインデックスのベクトル。 |
オプション | オプションの属性値を持ちます |
戻り値
- SparseApplyAdagradV2 の新しいインスタンス
public static SparseApplyAdagradV2.Options useLocking (Boolean useLocking)
パラメーター
使用ロック | 「True」の場合、var テンソルと accum テンソルの更新はロックによって保護されます。それ以外の場合、動作は未定義ですが、競合が少なくなる可能性があります。 |
---|