RetrieveTPUEmbeddingADAMParametersGradAccumDebug

public Final class RetrieveTPUEmbeddingADAMParametersGradAccumDebug

デバッグ サポートを使用して ADAM 埋め込みパラメータを取得します。

ホストメモリへの埋め込みから最適化パラメータを取得する演算。正しい埋め込みテーブル構成を設定する ConfigureTPUEmbeddingHost オペレーションを前に置く必要があります。たとえば、この操作はチェックポイントを保存する前に更新されたパラメータを取得するために使用されます。

ネストされたクラス

クラスRetrieveTPUEmbeddingADAMParametersGradAccumDebug.Options RetrieveTPUEmbeddingADAMParametersGradAccumDebugのオプション属性

パブリックメソッド

static RetrieveTPUEmbeddingADAMParametersGradAccumDebug.Options
config (文字列構成)
static RetrieveTPUEmbeddingADAMParametersGradAccumDebug
create (スコープscope、Long numShards、Long shardId、オプション...オプション)
新しい RetrieveTPUEmbeddingADAMParametersGradAccumDebug 操作をラップするクラスを作成するファクトリ メソッド。
出力<浮動小数点数>
勾配アキュムレータ()
パラメータ gradient_accumulators は、ADAM 最適化アルゴリズムによって更新されます。
出力<浮動小数点数>
勢い()
ADAM 最適化アルゴリズムによって更新されるパラメーターの運動量。
出力<浮動小数点数>
パラメーター()
パラメータ ADAM 最適化アルゴリズムによって更新されるパラメータ。
static RetrieveTPUEmbeddingADAMParametersGradAccumDebug.Options
tableId (長いテーブル ID)
static RetrieveTPUEmbeddingADAMParametersGradAccumDebug.Options
テーブル名(文字列テーブル名)
出力<浮動小数点数>
速度()
ADAM 最適化アルゴリズムによって更新されたパラメーター速度。

継承されたメソッド

パブリックメソッド

public static RetrieveTPUEmbeddingADAMParametersGradAccumDebug.Options config (文字列構成)

public static RetrieveTPUEmbeddingADAMParametersGradAccumDebug create (スコープscope、Long numShards、Long shardId、 Options...オプション)

新しい RetrieveTPUEmbeddingADAMParametersGradAccumDebug 操作をラップするクラスを作成するファクトリ メソッド。

パラメーター
範囲現在のスコープ
オプションオプションの属性値を持ちます
戻り値
  • RetrieveTPUEmbeddingADAMParametersGradAccumDebug の新しいインスタンス

public Output <Float> gradientAccumulators ()

パラメータ gradient_accumulators は ADAM 最適化アルゴリズムによって更新されます。

public出力<Float> momenta ()

ADAM 最適化アルゴリズムによって更新されるパラメーターの運動量。

public出力<Float>パラメータ()

パラメータ ADAM 最適化アルゴリズムによって更新されるパラメータ。

public static RetrieveTPUEmbeddingADAMParametersGradAccumDebug.Options tableId (Long tableId)

public static RetrieveTPUEmbeddingADAMParametersGradAccumDebug.Options tableName (String tableName)

public出力<Float>速度()

ADAM 最適化アルゴリズムによって更新されたパラメーター速度。