警告:このAPIは非推奨であり、置き換えが安定した後 TensorFlowの将来のバージョンで削除される予定です。

このページは Cloud Translation API によって翻訳されました。
Switch to English

SparseApplyAdagradV2

パブリック最終クラスSparseApplyAdagradV2

adagradスキームに従って、「* var」および「* accum」の関連エントリを更新します。

これは、gradのある行の場合、varとaccumを次のように更新します。

$$accum += grad * grad$$
$$var -= lr * grad * (1 / sqrt(accum))$$

ネストされたクラス

クラスSparseApplyAdagradV2.OptionsSparseApplyAdagradV2オプションの属性

パブリックメソッド

出力<T>
asOutput ()
テンソルのシンボリックハンドルを返します。
static <T、U extends Number> SparseApplyAdagradV2 <T>
createスコープスコープ、オペランド<T> var、オペランド<T> accum、オペランド<T> lr、オペランド<T>イプシロン、オペランド<T> grad、オペランド<U>インデックス、オプション...オプション)
新しいSparseApplyAdagradV2操作をラップするクラスを作成するファクトリメソッド。
出力<T>
アウト()
「var」と同じです。
静的SparseApplyAdagradV2.Options
updateSlots (ブール値updateSlots)
静的SparseApplyAdagradV2.Options
useLocking (ブール値useLocking)

継承されたメソッド

パブリックメソッド

public Output <T> asOutput ()

テンソルのシンボリックハンドルを返します。

TensorFlow操作への入力は、別のTensorFlow操作の出力です。このメソッドは、入力の計算を表すシンボリックハンドルを取得するために使用されます。

public static SparseApplyAdagradV2 <T> create スコープスコープ、オペランド<T> var、オペランド<T> accum、オペランド<T> lr、オペランド<T>イプシロン、オペランド<T> grad、オペランド<U>インデックス、オプション。 。オプション)

新しいSparseApplyAdagradV2操作をラップするクラスを作成するファクトリメソッド。

パラメーター
範囲現在のスコープ
var Variable()からのものである必要があります。
アキュムVariable()からのものである必要があります。
lr学習率。スカラーである必要があります。
イプシロン定数係数。スカラーである必要があります。
卒業生グラデーション。
インデックスvarとaccumの最初の次元へのインデックスのベクトル。
オプションオプションの属性値を運ぶ
戻り値
  • SparseApplyAdagradV2の新しいインスタンス

public Output <T> out ()

「var」と同じです。

public static SparseApplyAdagradV2.Options updateSlots (ブール値updateSlots)

public static SparseApplyAdagradV2.Options useLocking (ブール値useLocking)

パラメーター
useLocking `True`の場合、varテンソルとaccumテンソルの更新はロックによって保護されます。それ以外の場合、動作は定義されていませんが、競合が少なくなる可能性があります。