警告:このAPIは非推奨であり、置き換えが安定した後 TensorFlowの将来のバージョンで削除される予定です。

ApplyAdagradV2

コレクションでコンテンツを整理 必要に応じて、コンテンツの保存と分類を行います。
公共finalクラスApplyAdagradV2

adagradスキームに従って「* var」を更新します。

accum + = grad * grad var- = lr * grad *(1 / sqrt(accum))

ネストされたクラス

クラスApplyAdagradV2.Options以下のためのオプションの属性ApplyAdagradV2

パブリックメソッド

出力<T>
asOutput ()
テンソルのシンボリックハンドルを返します。
静的<T> ApplyAdagradV2 <T>
作成スコープスコープ、オペランド<T> VAR、オペランド<T> ACCUM、オペランド<T> LR、オペランド<T>イプシロン、オペランド<T>卒業生、オプション...オプション)
新しいApplyAdagradV2操作をラップするクラスを作成するファクトリメソッド。
出力<T>
アウト()
「var」と同じです。
静的ApplyAdagradV2.Options
updateSlots (ブールupdateSlots)
静的ApplyAdagradV2.Options
useLocking (ブールuseLocking)

継承されたメソッド

パブリックメソッド

公共の出力<T> asOutput()

テンソルのシンボリックハンドルを返します。

TensorFlow操作への入力は、別のTensorFlow操作の出力です。このメソッドは、入力の計算を表すシンボリックハンドルを取得するために使用されます。

パブリック静的ApplyAdagradV2 <T>を作成スコープスコープ、オペランド<T> VAR、オペランド<T> ACCUM、オペランド<T> LR、オペランド<T>イプシロン、オペランド<T>卒業生、オプション...オプション)

新しいApplyAdagradV2操作をラップするクラスを作成するファクトリメソッド。

パラメーター
範囲現在のスコープ
var Variable()からのものである必要があります。
アキュムVariable()からのものである必要があります。
lrスケーリング係数。スカラーである必要があります。
イプシロン定数係数。スカラーである必要があります。
卒業生グラデーション。
オプションオプションの属性値を運ぶ
戻り値
  • ApplyAdagradV2の新しいインスタンス

公共の出力<T>アウト()

「var」と同じです。

パブリック静的のApplyAdagradV2.OptionsのupdateSlots(ブールupdateSlots)

パブリック静的ApplyAdagradV2.Options useLocking(ブールuseLocking)

パラメーター
useLocking `True`の場合、varテンソルとaccumテンソルの更新はロックによって保護されます。それ以外の場合、動作は定義されていませんが、競合が少なくなる可能性があります。