SparseApplyAdagradV2

パブリックファイナルクラスSparseApplyAdagradV2

adagradスキームに従って、「* var」および「* accum」の関連エントリを更新します。

これは、卒業した行の場合、varとaccumを次のように更新します。l10n $$accum += grad * grad$$$$var -= lr * grad * (1 / sqrt(accum))$$

ネストされたクラス

クラスSparseApplyAdagradV2.Options SparseApplyAdagradV2のオプションの属性

パブリックメソッド

出力<T>
asOutput ()
テンソルのシンボリックハンドルを返します。
static <T、U extends Number> SparseApplyAdagradV2 <T>
createスコープスコープ、オペランド<T> var、オペランド<T> accum、オペランド<T> lr、オペランド<T>イプシロン、オペランド<T> grad、オペランド<U>インデックス、オプション...オプション)
新しいSparseApplyAdagradV2操作をラップするクラスを作成するファクトリメソッド。
出力<T>
アウト()
「var」と同じです。
static SparseApplyAdagradV2.Options
updateSlots (ブール値updateSlots)
static SparseApplyAdagradV2.Options
useLocking (ブール値useLocking)

継承されたメソッド

パブリックメソッド

public Output <T> asOutput ()

テンソルのシンボリックハンドルを返します。

TensorFlow操作への入力は、別のTensorFlow操作の出力です。このメソッドは、入力の計算を表すシンボリックハンドルを取得するために使用されます。

public static SparseApplyAdagradV2 <T> create スコープスコープ、オペランド<T> var、オペランド<T> accum、オペランド<T> lr、オペランド<T>イプシロン、オペランド<T> grad、オペランド<U>インデックス、オプション。 。オプション)

新しいSparseApplyAdagradV2操作をラップするクラスを作成するファクトリメソッド。

パラメーター
範囲現在のスコープ
var Variable()からのものである必要があります。
アキュムVariable()からのものである必要があります。
lr学習率。スカラーである必要があります。
イプシロン定数係数。スカラーである必要があります。
卒業生グラデーション。
インデックスvarとaccumの最初の次元へのインデックスのベクトル。
オプションオプションの属性値を運ぶ
戻り値
  • SparseApplyAdagradV2の新しいインスタンス

public Output <T> out ()

「var」と同じです。

public static SparseApplyAdagradV2.Options updateSlots (ブール値updateSlots)

public static SparseApplyAdagradV2.Options useLocking (ブール値useLocking)

パラメーター
useLocking `True`の場合、varテンソルとaccumテンソルの更新はロックによって保護されます。それ以外の場合、動作は定義されていませんが、競合が少なくなる可能性があります。