Recupere parâmetros de incorporação SGD com suporte a depuração.
Uma operação que recupera os parâmetros de otimização da incorporação na memória do host. Deve ser precedido por um op ConfigureTPUEmbeddingHost que define a configuração correta da tabela de incorporação. Por exemplo, esta operação é usada para recuperar parâmetros atualizados antes de salvar um ponto de verificação.
Classes aninhadas
aula | RetrieveTPUEmbeddingStochasticGradientDescentParametersGradAccumDebug.Options | Atributos opcionais para RetrieveTPUEmbeddingStochasticGradientDescentParametersGradAccumDebug |
Métodos Públicos
static RetrieveTPUEmbeddingStochasticGradientDescentParametersGradAccumDebug.Options | config ( configuração de string) |
static RetrieveTPUEmbeddingStochasticGradientDescentParametersGradAccumDebug | criar ( escopo de escopo, longo numShards, longo shardId, opções ... opções) Método de fábrica para criar uma classe que envolve uma nova operação RetrieveTPUEmbeddingStochasticGradientDescentParametersGradAccumDebug. |
Saída <Float> | gradiente Acumuladores () Parâmetro gradiente_acumuladores atualizados pelo algoritmo de otimização Adadelta. |
Saída <Float> | parâmetros () Parâmetros de parâmetros atualizados pelo algoritmo de otimização descendente de gradiente estocástico. |
static RetrieveTPUEmbeddingStochasticGradientDescentParametersGradAccumDebug.Options | tableId (Long tableId) |
static RetrieveTPUEmbeddingStochasticGradientDescentParametersGradAccumDebug.Options | tableName (String tableName) |
Métodos herdados
Métodos Públicos
public static RetrieveTPUEmbeddingStochasticGradientDescentParametersGradAccumDebug.Options config (String config)
public static RetrieveTPUEmbeddingStochasticGradientDescentParametersGradAccumDebug create ( escopo do escopo, Long numShards, Long shardId, Options ... options)
Método de fábrica para criar uma classe que envolve uma nova operação RetrieveTPUEmbeddingStochasticGradientDescentParametersGradAccumDebug.
Parâmetros
alcance | escopo atual |
---|---|
opções | carrega valores de atributos opcionais |
Devoluções
- uma nova instância de RetrieveTPUEmbeddingStochasticGradientDescentParametersGradAccumDebug
public Output <Float> gradientAccumulators ()
Parâmetro gradiente_acumuladores atualizados pelo algoritmo de otimização Adadelta.
Parâmetros public Output <Float> ()
Parâmetros de parâmetros atualizados pelo algoritmo de otimização descendente de gradiente estocástico.