Carica i parametri di incorporamento SGD.
Un'operazione che carica i parametri di ottimizzazione in HBM per l'incorporamento. Deve essere preceduto da un'operazione ConfigureTPUEmbeddingHost che imposta la corretta configurazione della tabella di incorporamento. Ad esempio, questa operazione viene utilizzata per installare i parametri caricati da un checkpoint prima dell'esecuzione di un ciclo di training.
Classi nidificate
| classe | LoadTPUEmbeddingStochasticGradientDescentParametersGradAccumDebug.Options | Attributi facoltativi per LoadTPUEmbeddingStochasticGradientDescentParametersGradAccumDebug | |
Metodi pubblici
| carico staticoTPUEmbeddingStochasticGradientDescentParametersGradAccumDebug.Options | configurazione (configurazione stringa) |
| carico staticoTPUEmbeddingStochasticGradientDescentParametersGradAccumDebug | create ( ambito ambito , parametri operando <Float>, gradientAccumulatori operando <Float>, numShards lunghi, shardId lungo, Opzioni... opzioni) Metodo factory per creare una classe che racchiude una nuova operazione LoadTPUEmbeddingStochasticGradientDescentParametersGradAccumDebug. |
| carico staticoTPUEmbeddingStochasticGradientDescentParametersGradAccumDebug.Options | tableId (Tabella lunga) |
| carico staticoTPUEmbeddingStochasticGradientDescentParametersGradAccumDebug.Options | tableName (Stringa tableName) |
Metodi ereditati
Metodi pubblici
configurazione pubblica statica LoadTPUEmbeddingStochasticGradientDescentParametersGradAccumDebug.Options (configurazione stringa)
public static LoadTPUEmbeddingStochasticGradientDescentParametersGradAccumDebug create ( ambito ambito , parametri operando <Float>, operando <Float> gradientAccumulatori, numShards lunghi, shardId lungo, Opzioni... opzioni)
Metodo factory per creare una classe che racchiude una nuova operazione LoadTPUEmbeddingStochasticGradientDescentParametersGradAccumDebug.
Parametri
| scopo | ambito attuale |
|---|---|
| parametri | Valore dei parametri utilizzati nell'algoritmo di ottimizzazione della discesa del gradiente stocastico. |
| gradientAccumulatori | Valore di gradient_accumulators utilizzato nell'algoritmo di ottimizzazione Adadelta. |
| opzioni | trasporta valori di attributi opzionali |
ritorna
- una nuova istanza di LoadTPUEmbeddingStochasticGradientDescentParametersGradAccumDebug