取得TPU埋め込み確率的勾配降下パラメータGradAccumDebug

public Final class RetrieveTPUEmbeddingStochasticGradientDescentParametersGradAccumDebug

デバッグサポートを使用して SGD 埋め込みパラメータを取得します。

ホストメモリへの埋め込みから最適化パラメータを取得する演算。正しい埋め込みテーブル構成を設定する ConfigureTPUEmbeddingHost オペレーションを前に置く必要があります。たとえば、この操作はチェックポイントを保存する前に更新されたパラメータを取得するために使用されます。

ネストされたクラス

クラスRetrieveTPUEmbeddingStochasticGradientDescentParametersGradAccumDebug.Options RetrieveTPUEmbeddingStochasticGradientDescentParametersGradAccumDebugのオプション属性

パブリックメソッド

static RetrieveTPUEmbeddingStochasticGradientDescentParametersGradAccumDebug.Options
config (文字列構成)
static RetrieveTPUEmbeddingStochasticGradientDescentParametersGradAccumDebug
create (スコープscope、Long numShards、Long shardId、オプション...オプション)
新しい RetrieveTPUEmbeddingStochasticGradientDescentParametersGradAccumDebug 操作をラップするクラスを作成するファクトリ メソッド。
出力<浮動小数点>
勾配アキュムレータ()
パラメータ gradient_accumulators は、Adadelta 最適化アルゴリズムによって更新されます。
出力<浮動小数点>
パラメーター()
確率的勾配降下法最適化アルゴリズムによって更新されるパラメーター。
static RetrieveTPUEmbeddingStochasticGradientDescentParametersGradAccumDebug.Options
tableId (長いテーブル ID)
static RetrieveTPUEmbeddingStochasticGradientDescentParametersGradAccumDebug.Options
テーブル名(文字列テーブル名)

継承されたメソッド

パブリックメソッド

public static RetrieveTPUEmbeddingStochasticGradientDescentParametersGradAccumDebug create (スコープscope、Long numShards、Long shardId、 Options...オプション)

新しい RetrieveTPUEmbeddingStochasticGradientDescentParametersGradAccumDebug 操作をラップするクラスを作成するファクトリ メソッド。

パラメーター
範囲現在のスコープ
オプションオプションの属性値を持ちます
戻り値
  • RetrieveTPUEmbeddingStochasticGradientDescentParametersGradAccumDebug の新しいインスタンス

public Output <Float> gradientAccumulators ()

パラメータ gradient_accumulators は、Adadelta 最適化アルゴリズムによって更新されます。

public出力<Float>パラメータ()

確率的勾配降下法最適化アルゴリズムによって更新されるパラメーター。