警告:このAPIは非推奨であり、置き換えが安定した後 TensorFlowの将来のバージョンで削除される予定です。

このページは Cloud Translation API によって翻訳されました。
Switch to English

RetrieveTPUEmbeddingStochasticGradientDescentParametersGradAccumDebug

パブリック最終クラスRetrieveTPUEmbeddingStochasticGradientDescentParametersGradAccumDebug

デバッグサポートを使用してSGD埋め込みパラメータを取得します。

ホストメモリへの埋め込みから最適化パラメータを取得する操作。正しい埋め込みテーブル構成をセットアップするConfigureTPUEmbeddingHostopを前に付ける必要があります。たとえば、この操作は、チェックポイントを保存する前に更新されたパラメータを取得するために使用されます。

ネストされたクラス

クラスRetrieveTPUEmbeddingStochasticGradientDescentParametersGradAccumDebug.Options RetrieveTPUEmbeddingStochasticGradientDescentParametersGradAccumDebugオプションの属性

パブリックメソッド

静的RetrieveTPUEmbeddingStochasticGradientDescentParametersGradAccumDebug.Options
config (String config)
静的RetrieveTPUEmbeddingStochasticGradientDescentParametersGradAccumDebug
createスコープスコープ、Long numShards、Long shardId、 Options ...オプション)
新しいRetrieveTPUEmbeddingStochasticGradientDescentParametersGradAccumDebug操作をラップするクラスを作成するファクトリメソッド。
出力<フロート>
勾配アキュムレータ()
Adadelta最適化アルゴリズムによって更新されたパラメーターgradient_accumulators。
出力<フロート>
パラメータ()
確率的勾配降下最適化アルゴリズムによって更新されたパラメーターパラメーター。
静的RetrieveTPUEmbeddingStochasticGradientDescentParametersGradAccumDebug.Options
tableId (長いtableId)
静的RetrieveTPUEmbeddingStochasticGradientDescentParametersGradAccumDebug.Options
tableName (String tableName)

継承されたメソッド

パブリックメソッド

public static RetrieveTPUEmbeddingStochasticGradientDescentParametersGradAccumDebug create スコープスコープ、Long numShards、Long shardId、 Options ...オプション)

新しいRetrieveTPUEmbeddingStochasticGradientDescentParametersGradAccumDebug操作をラップするクラスを作成するファクトリメソッド。

パラメーター
範囲現在のスコープ
オプションオプションの属性値を運ぶ
戻り値
  • RetrieveTPUEmbeddingStochasticGradientDescentParametersGradAccumDebugの新しいインスタンス

public Output <Float> gradientAccumulators ()

Adadelta最適化アルゴリズムによって更新されたパラメーターgradient_accumulators。

public Output <Float>パラメーター()

確率的勾配降下最適化アルゴリズムによって更新されたパラメーターパラメーター。