ResourceApplyAdamWithAmsgrad

パブリック最終クラス

Adam アルゴリズムに従って「*var」を更新します。

$$\text{lr}_t := \mathrm{learning_rate} * \sqrt{1 - \beta_2^t} / (1 - \beta_1^t)$$$$m_t := \beta_1 * m_{t-1} + (1 - \beta_1) * g$$$$v_t := \beta_2 * v_{t-1} + (1 - \beta_2) * g * g$$$$\hat{v}_t := max{\hat{v}_{t-1}, v_t}$$$$\text{variable} := \text{variable} - \text{lr}_t * m_t / (\sqrt{\hat{v}_t} + \epsilon)$$

ネストされたクラス

クラスリソースApplyAdamWithAmsgrad.Options ResourceApplyAdamWithAmsgradのオプションの属性

定数

OP_NAME TensorFlow コア エンジンによって認識される、この演算の名前

パブリックメソッド

static <T extends TType > ResourceApplyAdamWithAmsgrad
create (スコープscope,オペランド<?> var,オペランド<?> m,オペランド<?> v,オペランド<?> vhat,オペランド<T> beta1Power,オペランド<T> beta2Power,オペランド<T> lr,オペランド<T > beta1、オペランド<T> beta2、オペランド<T> イプシロン、オペランド<T> grad、オプション...オプション)
新しい ResourceApplyAdamWithAmsgrad 操作をラップするクラスを作成するためのファクトリ メソッド。
静的ResourceApplyAdamWithAmsgrad.Options
useLocking (ブール型 useLocking)

継承されたメソッド

定数

パブリック静的最終文字列OP_NAME

TensorFlow コア エンジンによって認識される、この演算の名前

定数値: "ResourceApplyAdamWithAmsgrad"

パブリックメソッド

public static ResourceApplyAdamWithAmsgrad create (スコープscope,オペランド<?> var,オペランド<?> m,オペランド<?> v,オペランド<?> vhat,オペランド<T> beta1Power,オペランド<T> beta2Power,オペランド<T> lr,オペランド<T> beta1、オペランド<T> beta2、オペランド<T> イプシロン、オペランド<T> grad、オプション...オプション)

新しい ResourceApplyAdamWithAmsgrad 操作をラップするクラスを作成するためのファクトリ メソッド。

パラメーター
範囲現在のスコープ
変数Variable() から取得する必要があります。
メートルVariable() から取得する必要があります。
v Variable() から取得する必要があります。
ああVariable() から取得する必要があります。
beta1パワースカラーでなければなりません。
ベータ2パワースカラーでなければなりません。
lrスケーリング係数。スカラーでなければなりません。
ベータ1勢い要因。スカラーでなければなりません。
ベータ2勢い要因。スカラーでなければなりません。
イプシロンリッジ用語。スカラーでなければなりません。
卒業生グラデーション。
オプションオプションの属性値を持ちます
戻り値
  • ResourceApplyAdamWithAmsgrad の新しいインスタンス

public static ResourceApplyAdamWithAmsgrad.Options useLocking (Boolean useLocking)

パラメーター
使用ロック「True」の場合、var、m、および v テンソルの更新はロックによって保護されます。それ以外の場合、動作は未定義ですが、競合が少なくなる可能性があります。