LoadTPUEmbeddingStochasticGradientDescentParametersGradAccumDebug

classe finale pubblica LoadTPUEmbeddingStochasticGradientDescentParametersGradAccumDebug

Carica i parametri di incorporamento SGD.

Un'operazione che carica i parametri di ottimizzazione in HBM per l'incorporamento. Deve essere preceduto da un'operazione ConfigureTPUEmbeddingHost che imposta la corretta configurazione della tabella di incorporamento. Ad esempio, questa operazione viene utilizzata per installare i parametri caricati da un checkpoint prima dell'esecuzione di un ciclo di training.

Classi nidificate

classe LoadTPUEmbeddingStochasticGradientDescentParametersGradAccumDebug.Options Attributi facoltativi per LoadTPUEmbeddingStochasticGradientDescentParametersGradAccumDebug

Metodi pubblici

carico staticoTPUEmbeddingStochasticGradientDescentParametersGradAccumDebug.Options
configurazione (configurazione stringa)
carico staticoTPUEmbeddingStochasticGradientDescentParametersGradAccumDebug
create ( ambito ambito , parametri operando <Float>, gradientAccumulatori operando <Float>, numShards lunghi, shardId lungo, Opzioni... opzioni)
Metodo factory per creare una classe che racchiude una nuova operazione LoadTPUEmbeddingStochasticGradientDescentParametersGradAccumDebug.
carico staticoTPUEmbeddingStochasticGradientDescentParametersGradAccumDebug.Options
tableId (Tabella lunga)
carico staticoTPUEmbeddingStochasticGradientDescentParametersGradAccumDebug.Options
tableName (Stringa tableName)

Metodi ereditati

Metodi pubblici

configurazione pubblica statica LoadTPUEmbeddingStochasticGradientDescentParametersGradAccumDebug.Options (configurazione stringa)

public static LoadTPUEmbeddingStochasticGradientDescentParametersGradAccumDebug create ( ambito ambito , parametri operando <Float>, operando <Float> gradientAccumulatori, numShards lunghi, shardId lungo, Opzioni... opzioni)

Metodo factory per creare una classe che racchiude una nuova operazione LoadTPUEmbeddingStochasticGradientDescentParametersGradAccumDebug.

Parametri
scopo ambito attuale
parametri Valore dei parametri utilizzati nell'algoritmo di ottimizzazione della discesa del gradiente stocastico.
gradientAccumulatori Valore di gradient_accumulators utilizzato nell'algoritmo di ottimizzazione Adadelta.
opzioni trasporta valori di attributi opzionali
ritorna
  • una nuova istanza di LoadTPUEmbeddingStochasticGradientDescentParametersGradAccumDebug