public Final class RetrieveTPUEmbeddingADAMParametersGradAccumDebug
デバッグ サポートを使用して ADAM 埋め込みパラメータを取得します。
ホストメモリへの埋め込みから最適化パラメータを取得する演算。正しい埋め込みテーブル構成を設定する ConfigureTPUEmbeddingHost オペレーションを前に置く必要があります。たとえば、この操作はチェックポイントを保存する前に更新されたパラメータを取得するために使用されます。
ネストされたクラス
クラス | RetrieveTPUEmbeddingADAMParametersGradAccumDebug.Options | RetrieveTPUEmbeddingADAMParametersGradAccumDebug のオプション属性 |
パブリックメソッド
static RetrieveTPUEmbeddingADAMParametersGradAccumDebug.Options | config (文字列構成) |
static RetrieveTPUEmbeddingADAMParametersGradAccumDebug | |
出力<浮動小数点数> | 勾配アキュムレータ() パラメータ gradient_accumulators は、ADAM 最適化アルゴリズムによって更新されます。 |
出力<浮動小数点数> | 勢い() ADAM 最適化アルゴリズムによって更新されるパラメーターの運動量。 |
出力<浮動小数点数> | パラメーター() パラメータ ADAM 最適化アルゴリズムによって更新されるパラメータ。 |
static RetrieveTPUEmbeddingADAMParametersGradAccumDebug.Options | tableId (長いテーブル ID) |
static RetrieveTPUEmbeddingADAMParametersGradAccumDebug.Options | テーブル名(文字列テーブル名) |
出力<浮動小数点数> | 速度() ADAM 最適化アルゴリズムによって更新されたパラメーター速度。 |
継承されたメソッド
パブリックメソッド
public static RetrieveTPUEmbeddingADAMParametersGradAccumDebug create (スコープscope、Long numShards、Long shardId、 Options...オプション)
新しい RetrieveTPUEmbeddingADAMParametersGradAccumDebug 操作をラップするクラスを作成するファクトリ メソッド。
パラメーター
範囲 | 現在のスコープ |
---|---|
オプション | オプションの属性値を持ちます |
戻り値
- RetrieveTPUEmbeddingADAMParametersGradAccumDebug の新しいインスタンス
public Output <Float> gradientAccumulators ()
パラメータ gradient_accumulators は ADAM 最適化アルゴリズムによって更新されます。