RetrieveTPUEmbeddingStochasticGradientDescentParametersGradAccumDebug

classe finale pubblica RetrieveTPUEmbeddingStochasticGradientDescentParametersGradAccumDebug

Recupera i parametri di incorporamento SGD con il supporto per il debug.

Un'operazione che recupera i parametri di ottimizzazione dall'incorporamento nella memoria dell'host. Deve essere preceduto da un'operazione ConfigureTPUEmbeddingHost che imposta la corretta configurazione della tabella di incorporamento. Ad esempio, questa operazione viene utilizzata per recuperare parametri aggiornati prima di salvare un checkpoint.

Classi nidificate

classe RecuperaTPUEmbeddingStochasticGradientDescentParametersGradAccumDebug.Options Attributi facoltativi per RetrieveTPUEmbeddingStochasticGradientDescentParametersGradAccumDebug

Costanti

Corda OP_NAME Il nome di questa operazione, come noto al motore principale di TensorFlow

Metodi pubblici

Recupero staticoTPUEmbeddingStochasticGradientDescentParametersGradAccumDebug.Options
configurazione (configurazione stringa)
static RetrieveTPUEmbeddingStochasticGradientDescentParametersGradAccumDebug
crea (ambito ambito , numShards lunghi, shardId lungo, Opzioni... opzioni)
Metodo factory per creare una classe che racchiude una nuova operazione RetrieveTPUEmbeddingStochasticGradientDescentParametersGradAccumDebug.
Uscita < TFloat32 >
gradientAccumulatori ()
Parametro gradient_accumulators aggiornato dall'algoritmo di ottimizzazione Adadelta.
Uscita < TFloat32 >
parametri ()
Parametri dei parametri aggiornati dall'algoritmo di ottimizzazione della discesa del gradiente stocastico.
Recupero staticoTPUEmbeddingStochasticGradientDescentParametersGradAccumDebug.Options
tableId (Tabella lunga)
Recupero staticoTPUEmbeddingStochasticGradientDescentParametersGradAccumDebug.Options
tableName (Stringa tableName)

Metodi ereditati

Costanti

Stringa finale statica pubblica OP_NAME

Il nome di questa operazione, come noto al motore principale di TensorFlow

Valore costante: "RetrieveTPUEmbeddingStochasticGradientDescentParametersGradAccumDebug"

Metodi pubblici

public static RetrieveTPUEmbeddingStochasticGradientDescentParametersGradAccumDebug.Options configurazione (configurazione stringa)

public static RetrieveTPUEmbeddingStochasticGradientDescentParametersGradAccumDebug create ( Scope scope, Long numShards, Long shardId, Options... options)

Metodo factory per creare una classe che racchiude una nuova operazione RetrieveTPUEmbeddingStochasticGradientDescentParametersGradAccumDebug.

Parametri
scopo ambito attuale
opzioni trasporta valori di attributi opzionali
ritorna
  • una nuova istanza di RetrieveTPUEmbeddingStochasticGradientDescentParametersGradAccumDebug

Output pubblico < TFloat32 > gradientAccumulatori ()

Parametro gradient_accumulators aggiornato dall'algoritmo di ottimizzazione Adadelta.

parametri di output pubblico < TFloat32 > ()

Parametri dei parametri aggiornati dall'algoritmo di ottimizzazione della discesa del gradiente stocastico.