Recupere os parâmetros de incorporação do ADAM com suporte para depuração.
Uma operação que recupera os parâmetros de otimização da incorporação na memória do host. Deve ser precedido por um op ConfigureTPUEmbeddingHost que define a configuração correta da tabela de incorporação. Por exemplo, esta operação é usada para recuperar parâmetros atualizados antes de salvar um ponto de verificação.
Classes aninhadas
aula | RetrieveTPUEmbeddingADAMParametersGradAccumDebug.Options | Atributos opcionais para RetrieveTPUEmbeddingADAMParametersGradAccumDebug |
Métodos Públicos
static RetrieveTPUEmbeddingADAMParametersGradAccumDebug.Options | config ( configuração de string) |
static RetrieveTPUEmbeddingADAMParametersGradAccumDebug | criar ( escopo de escopo, longo numShards, longo shardId, opções ... opções) Método de fábrica para criar uma classe que envolve uma nova operação RetrieveTPUEmbeddingADAMParametersGradAccumDebug. |
Resultado <Float> | gradiente Acumuladores () Parâmetro gradiente_acumuladores atualizados pelo algoritmo de otimização do ADAM. |
Resultado <Float> | momento () Parâmetro momentum atualizado pelo algoritmo de otimização ADAM. |
Resultado <Float> | parâmetros () Parâmetros de parâmetros atualizados pelo algoritmo de otimização ADAM. |
static RetrieveTPUEmbeddingADAMParametersGradAccumDebug.Options | tableId (Long tableId) |
static RetrieveTPUEmbeddingADAMParametersGradAccumDebug.Options | tableName (String tableName) |
Resultado <Float> | velocidades () Velocidades de parâmetro atualizadas pelo algoritmo de otimização ADAM. |
Métodos herdados
Métodos Públicos
public static RetrieveTPUEmbeddingADAMParametersGradAccumDebug create ( escopo do escopo, Long numShards, Long shardId, Options ... options)
Método de fábrica para criar uma classe que envolve uma nova operação RetrieveTPUEmbeddingADAMParametersGradAccumDebug.
Parâmetros
alcance | escopo atual |
---|---|
opções | carrega valores de atributos opcionais |
Devoluções
- uma nova instância de RetrieveTPUEmbeddingADAMParametersGradAccumDebug
public Output <Float> gradientAccumulators ()
Parâmetro gradiente_acumuladores atualizados pelo algoritmo de otimização do ADAM.
Parâmetros public Output <Float> ()
Parâmetros de parâmetros atualizados pelo algoritmo de otimização ADAM.
pública Output <float> velocidades ()
Velocidades de parâmetro atualizadas pelo algoritmo de otimização ADAM.