パブリックファイナルクラスSparseApplyAdagradV2
adagradスキームに従って、「* var」および「* accum」の関連エントリを更新します。
これは、卒業した行の場合、varとaccumを次のように更新します。l10n $$accum += grad * grad$$$$var -= lr * grad * (1 / sqrt(accum))$$
ネストされたクラス
クラス | SparseApplyAdagradV2.Options | SparseApplyAdagradV2 のオプションの属性 |
パブリックメソッド
出力<T> | asOutput () テンソルのシンボリックハンドルを返します。 |
static <T、U extends Number> SparseApplyAdagradV2 <T> | |
出力<T> | アウト() 「var」と同じです。 |
static SparseApplyAdagradV2.Options | updateSlots (ブール値updateSlots) |
static SparseApplyAdagradV2.Options | useLocking (ブール値useLocking) |
継承されたメソッド
パブリックメソッド
public Output <T> asOutput ()
テンソルのシンボリックハンドルを返します。
TensorFlow操作への入力は、別のTensorFlow操作の出力です。このメソッドは、入力の計算を表すシンボリックハンドルを取得するために使用されます。
public static SparseApplyAdagradV2 <T> create (スコープスコープ、オペランド<T> var、オペランド<T> accum、オペランド<T> lr、オペランド<T>イプシロン、オペランド<T> grad、オペランド<U>インデックス、オプション。 。オプション)
新しいSparseApplyAdagradV2操作をラップするクラスを作成するファクトリメソッド。
パラメーター
範囲 | 現在のスコープ |
---|---|
var | Variable()からのものである必要があります。 |
アキュム | Variable()からのものである必要があります。 |
lr | 学習率。スカラーである必要があります。 |
イプシロン | 定数係数。スカラーである必要があります。 |
卒業生 | グラデーション。 |
インデックス | varとaccumの最初の次元へのインデックスのベクトル。 |
オプション | オプションの属性値を運ぶ |
戻り値
- SparseApplyAdagradV2の新しいインスタンス
public static SparseApplyAdagradV2.Options useLocking (ブール値useLocking)
パラメーター
useLocking | `True`の場合、varテンソルとaccumテンソルの更新はロックによって保護されます。それ以外の場合、動作は定義されていませんが、競合が少なくなる可能性があります。 |
---|