ResourceApplyAdadelta

パブリック最終クラスResourceApplyAdadelta

adadelta スキームに従って「*var」を更新します。

accum = rho() * accum + (1 - rho()) * grad.square(); update = (update_accum + epsilon).sqrt() * (accum + epsilon()).rsqrt() * grad; update_accum = rho() * update_accum + (1 - rho()) * update.square(); var -= 更新;

ネストされたクラス

クラスリソースApplyAdadelta.Options ResourceApplyAdadeltaのオプションの属性

定数

OP_NAME TensorFlow コア エンジンによって認識される、この演算の名前

パブリックメソッド

static <T extends TType > ResourceApplyAdadelta
create (スコープscope,オペランド<?> var,オペランド<?> accum,オペランド<?> accumUpdate,オペランド<T> lr,オペランド<T> rho,オペランド<T> epsilon,オペランド<T> grad, Options.. .オプション)
新しい ResourceApplyAdadelta オペレーションをラップするクラスを作成するためのファクトリ メソッド。
静的ResourceApplyAdadelta.Options
useLocking (ブール型 useLocking)

継承されたメソッド

定数

パブリック静的最終文字列OP_NAME

TensorFlow コア エンジンによって認識される、この演算の名前

定数値: "ResourceApplyAdadelta"

パブリックメソッド

public static ResourceApplyAdadelta create (スコープscope,オペランド<?> var,オペランド<?> accum,オペランド<?> accumUpdate,オペランド<T> lr,オペランド<T> rho,オペランド<T> epsilon,オペランド<T> grad,オプション...オプション)

新しい ResourceApplyAdadelta オペレーションをラップするクラスを作成するためのファクトリ メソッド。

パラメーター
範囲現在のスコープ
変数Variable() から取得する必要があります。
蓄積Variable() から取得する必要があります。
累積更新Variable() から取得する必要があります。
lrスケーリング係数。スカラーでなければなりません。
ロー減衰係数。スカラーでなければなりません。
イプシロン定数係数。スカラーでなければなりません。
卒業生グラデーション。
オプションオプションの属性値を持ちます
戻り値
  • ResourceApplyAdadelta の新しいインスタンス

public static ResourceApplyAdadelta.Options useLocking (ブール型 useLocking)

パラメーター
使用ロックTrue の場合、var、accum、update_accum テンソルの更新はロックによって保護されます。それ以外の場合、動作は未定義ですが、競合が少なくなる可能性があります。