ResourceSparseApplyProximalAdagrad

パブリック最終クラスResourceSparseApplyProximalAdagrad

FOBOS アルゴリズムに従って、'*var' および '*accum' 内のスパース更新エントリ。

つまり、grad がある行については、var と accum を次のように更新します。 accum += grad grad prox_v = var prox_v -= lr grad (1 / sqrt(accum)) var =sign(prox_v)/(1+lr l2) ) max{|prox_v|-lr l1,0}

ネストされたクラス

クラスResourceSparseApplyProximalAdagrad.Options ResourceSparseApplyProximalAdagradのオプションの属性

定数

OP_NAME TensorFlow コア エンジンによって認識される、この演算の名前

パブリックメソッド

static <T extends TType > ResourceSparseApplyProximalAdagrad
create (スコープscope,オペランド<?> var,オペランド<?> accum,オペランド<T> lr,オペランド<T> l1,オペランド<T> l2,オペランド<T> grad,オペランド<? extends TNumber > indices,オプション...オプション)
新しい ResourceSparseApplyProximalAdagrad 操作をラップするクラスを作成するためのファクトリ メソッド。
静的ResourceSparseApplyProximalAdagrad.Options
useLocking (ブール型 useLocking)

継承されたメソッド

定数

パブリック静的最終文字列OP_NAME

TensorFlow コア エンジンによって認識される、この演算の名前

定数値: "ResourceSparseApplyProximalAdagrad"

パブリックメソッド

public static ResourceSparseApplyProximalAdagrad create (スコープscope,オペランド<?> var,オペランド<?> accum,オペランド<T> lr,オペランド<T> l1,オペランド<T> l2,オペランド<T> grad,オペランド<? extends TNumber >インデックス、オプション...オプション)

新しい ResourceSparseApplyProximalAdagrad 操作をラップするクラスを作成するためのファクトリ メソッド。

パラメーター
範囲現在のスコープ
変数Variable() から取得する必要があります。
蓄積Variable() から取得する必要があります。
lr学習率。スカラーでなければなりません。
l1 L1 正則化。スカラーでなければなりません。
l2 L2 正則化。スカラーでなければなりません。
卒業生グラデーション。
インデックスvar と accum の最初の次元へのインデックスのベクトル。
オプションオプションの属性値を持ちます
戻り値
  • ResourceSparseApplyProximalAdagrad の新しいインスタンス

public static ResourceSparseApplyProximalAdagrad.Options useLocking (Boolean useLocking)

パラメーター
使用ロックTrue の場合、var テンソルと accum テンソルの更新はロックによって保護されます。それ以外の場合、動作は未定義ですが、競合が少なくなる可能性があります。