ApplyAdam

パブリック最終クラスApplyAdam

Adam アルゴリズムに従って「*var」を更新します。

$$lr_t := \text{learning\_rate} * \sqrt{1 - beta_2^t} / (1 - beta_1^t)$$$$m_t := beta_1 * m_{t-1} + (1 - beta_1) * g$$$$v_t := beta_2 * v_{t-1} + (1 - beta_2) * g * g$$$$variable := variable - lr_t * m_t / (\sqrt{v_t} + \epsilon)$$

ネストされたクラス

クラスAdam.Options の適用ApplyAdamのオプションの属性

定数

OP_NAME TensorFlow コア エンジンによって認識される、この演算の名前

パブリックメソッド

出力<T>
asOutput ()
テンソルのシンボリック ハンドルを返します。
static <T extends TType > applyAdam <T>
create (スコープscope,オペランド<T> var,オペランド<T> m,オペランド<T> v,オペランド<T> beta1Power,オペランド<T> beta2Power,オペランド<T> lr,オペランド<T> beta1,オペランド<T > beta2、オペランド<T> イプシロン、オペランド<T> grad、オプション...オプション)
新しいApplyAdamオペレーションをラップするクラスを作成するためのファクトリ メソッド。
出力<T>
()
「var」と同じです。
静的ApplyAdam.Options
useLocking (ブール型 useLocking)
静的ApplyAdam.Options
useNesterov (ブール型 useNesterov)

継承されたメソッド

定数

パブリック静的最終文字列OP_NAME

TensorFlow コア エンジンによって認識される、この演算の名前

定数値: "ApplyAdam"

パブリックメソッド

public Output <T> asOutput ()

テンソルのシンボリック ハンドルを返します。

TensorFlow オペレーションへの入力は、別の TensorFlow オペレーションの出力です。このメソッドは、入力の計算を表すシンボリック ハンドルを取得するために使用されます。

public static applyAdam <T> create (スコープscope,オペランド<T> var,オペランド<T> m,オペランド<T> v,オペランド<T> beta1Power,オペランド<T> beta2Power,オペランド<T> lr,オペランド<T > beta1、オペランド<T> beta2、オペランド<T> イプシロン、オペランド<T> grad、オプション...オプション)

新しいApplyAdamオペレーションをラップするクラスを作成するためのファクトリ メソッド。

パラメーター
範囲現在のスコープ
変数Variable() から取得する必要があります。
メートルVariable() から取得する必要があります。
v Variable() から取得する必要があります。
beta1パワースカラーでなければなりません。
ベータ2パワースカラーでなければなりません。
lrスケーリング係数。スカラーでなければなりません。
ベータ1勢い要因。スカラーでなければなりません。
ベータ2勢い要因。スカラーでなければなりません。
イプシロンリッジ用語。スカラーでなければなりません。
卒業生グラデーション。
オプションオプションの属性値を持ちます
戻り値
  • applyAdam の新しいインスタンス

public出力<T> out ()

「var」と同じです。

public static applyAdam.Options useLocking (ブール型 useLocking)

パラメーター
使用ロック「True」の場合、var、m、および v テンソルの更新はロックによって保護されます。それ以外の場合、動作は未定義ですが、競合が少なくなる可能性があります。

public static applyAdam.Options useNesterov (ブール型 useNesterov)

パラメーター
使用ネステロフ「True」の場合、nesterov アップデートを使用します。