RetrieveTPUEmbeddingStochasticGradientDescentParametersGradAccumDebug

RetrieveTPUEmbeddingStochasticGradientDescentParametersGradAccumDebug classe final pública

Recupere parâmetros de incorporação SGD com suporte a depuração.

Uma operação que recupera os parâmetros de otimização da incorporação na memória do host. Deve ser precedido por um op ConfigureTPUEmbeddingHost que define a configuração correta da tabela de incorporação. Por exemplo, esta operação é usada para recuperar parâmetros atualizados antes de salvar um ponto de verificação.

Classes aninhadas

classe RetrieveTPUEmbeddingStochasticGradientDescentParametersGradAccumDebug.Options Atributos opcionais para RetrieveTPUEmbeddingStochasticGradientDescentParametersGradAccumDebug

Métodos Públicos

estáticos RetrieveTPUEmbeddingStochasticGradientDescentParametersGradAccumDebug.Options
configuração (String config)
estática RetrieveTPUEmbeddingStochasticGradientDescentParametersGradAccumDebug
criar ( Scope escopo, numShards longo, longo shardId, Options ... Opções)
Método de fábrica para criar uma classe que envolve uma nova operação RetrieveTPUEmbeddingStochasticGradientDescentParametersGradAccumDebug.
Output <float>
gradientAccumulators ()
Parâmetro gradiente_acumuladores atualizados pelo algoritmo de otimização Adadelta.
Output <float>
parâmetros ()
Parâmetros de parâmetros atualizados pelo algoritmo de otimização descendente de gradiente estocástico.
estáticos RetrieveTPUEmbeddingStochasticGradientDescentParametersGradAccumDebug.Options
tableId (Long tableId)
estáticos RetrieveTPUEmbeddingStochasticGradientDescentParametersGradAccumDebug.Options
tableName (String tableName)

Métodos herdados

Métodos Públicos

public static RetrieveTPUEmbeddingStochasticGradientDescentParametersGradAccumDebug criar ( Scope escopo, numShards longo, longo shardId, Options ... Opções)

Método de fábrica para criar uma classe que envolve uma nova operação RetrieveTPUEmbeddingStochasticGradientDescentParametersGradAccumDebug.

Parâmetros
alcance escopo atual
opções carrega valores de atributos opcionais
Devoluções
  • uma nova instância de RetrieveTPUEmbeddingStochasticGradientDescentParametersGradAccumDebug

pública Output <float> gradientAccumulators ()

Parâmetro gradiente_acumuladores atualizados pelo algoritmo de otimização Adadelta.

pública Output <float> parâmetros ()

Parâmetros de parâmetros atualizados pelo algoritmo de otimização descendente de gradiente estocástico.