アダグラド V2 を適用する

パブリック最終クラスApplyAdagradV2

adagrad スキームに従って「*var」を更新します。

accum += grad * grad var -= lr * grad * (1 / sqrt(accum))

ネストされたクラス

クラス適用AdagradV2.オプションApplyAdagradV2のオプションの属性

パブリックメソッド

出力<T>
asOutput ()
テンソルのシンボリック ハンドルを返します。
静的 <T> ApplyAdagradV2 <T>
create (スコープscope、オペランド<T> var、オペランド<T> accum、オペランド<T> lr、オペランド<T> epsilon、オペランド<T> grad、オプション... options)
新しいApplyAdagradV2オペレーションをラップするクラスを作成するファクトリメソッド。
出力<T>
()
「var」と同じです。
静的ApplyAdagradV2.Options
updateSlots (ブール値の updateSlots)
静的ApplyAdagradV2.Options
useLocking (ブール型 useLocking)

継承されたメソッド

パブリックメソッド

public Output <T> asOutput ()

テンソルのシンボリック ハンドルを返します。

TensorFlow オペレーションへの入力は、別の TensorFlow オペレーションの出力です。このメソッドは、入力の計算を表すシンボリック ハンドルを取得するために使用されます。

public static applyAdagradV2 <T> create (スコープscope、オペランド<T> var、オペランド<T> accum、オペランド<T> lr、オペランド<T> イプシロン、オペランド<T> grad、オプション... options)

新しいApplyAdagradV2オペレーションをラップするクラスを作成するファクトリメソッド。

パラメーター
範囲現在のスコープ
変数Variable() から取得する必要があります。
蓄積Variable() から取得する必要があります。
lrスケーリング係数。スカラーでなければなりません。
イプシロン定数係数。スカラーでなければなりません。
卒業生グラデーション。
オプションオプションの属性値を持ちます
戻り値
  • applyAdagradV2 の新しいインスタンス

public出力<T> out ()

「var」と同じです。

public static applyAdagradV2.Options updateSlots (ブール値 updateSlots)

public static applyAdagradV2.Options useLocking (ブール型 useLocking)

パラメーター
使用ロック「True」の場合、var テンソルと accum テンソルの更新はロックによって保護されます。それ以外の場合、動作は未定義ですが、競合が少なくなる可能性があります。