RetrieveTPUEmbeddingStochasticGradientDescentParametersGradAccumDebug

public final class RetrieveTPUEmbeddingStochasticGradientDescentParametersGradAccumDebug

Recupere parâmetros de incorporação SGD com suporte a depuração.

Uma operação que recupera os parâmetros de otimização da incorporação na memória do host. Deve ser precedido por um op ConfigureTPUEmbeddingHost que define a configuração correta da tabela de incorporação. Por exemplo, esta operação é usada para recuperar parâmetros atualizados antes de salvar um ponto de verificação.

Classes aninhadas

aula RetrieveTPUEmbeddingStochasticGradientDescentParametersGradAccumDebug.Options Atributos opcionais para RetrieveTPUEmbeddingStochasticGradientDescentParametersGradAccumDebug

Métodos Públicos

static RetrieveTPUEmbeddingStochasticGradientDescentParametersGradAccumDebug.Options
static RetrieveTPUEmbeddingStochasticGradientDescentParametersGradAccumDebug
criar ( escopo de escopo, longo numShards, longo shardId, opções ... opções)
Método de fábrica para criar uma classe que envolve uma nova operação RetrieveTPUEmbeddingStochasticGradientDescentParametersGradAccumDebug.
Saída <Float>
gradiente Acumuladores ()
Parâmetro gradiente_acumuladores atualizados pelo algoritmo de otimização Adadelta.
Saída <Float>
parâmetros ()
Parâmetros de parâmetros atualizados pelo algoritmo de otimização descendente de gradiente estocástico.
static RetrieveTPUEmbeddingStochasticGradientDescentParametersGradAccumDebug.Options
tableId (Long tableId)
static RetrieveTPUEmbeddingStochasticGradientDescentParametersGradAccumDebug.Options
tableName (String tableName)

Métodos herdados

Métodos Públicos

public static RetrieveTPUEmbeddingStochasticGradientDescentParametersGradAccumDebug create ( escopo do escopo, Long numShards, Long shardId, Options ... options)

Método de fábrica para criar uma classe que envolve uma nova operação RetrieveTPUEmbeddingStochasticGradientDescentParametersGradAccumDebug.

Parâmetros
alcance escopo atual
opções carrega valores de atributos opcionais
Devoluções
  • uma nova instância de RetrieveTPUEmbeddingStochasticGradientDescentParametersGradAccumDebug

public Output <Float> gradientAccumulators ()

Parâmetro gradiente_acumuladores atualizados pelo algoritmo de otimização Adadelta.

Parâmetros public Output <Float> ()

Parâmetros de parâmetros atualizados pelo algoritmo de otimização descendente de gradiente estocástico.