RetrieveTPUEmbeddingADAMParametersGradAccumDebug

classe final pública RetrieveTPUEmbeddingADAMParametersGradAccumDebug

Recuperar parâmetros de incorporação do ADAM com suporte para depuração.

Uma operação que recupera parâmetros de otimização da incorporação na memória do host. Deve ser precedido por uma operação ConfigureTPUEmbeddingHost que define a configuração correta da tabela de incorporação. Por exemplo, esta operação é usada para recuperar parâmetros atualizados antes de salvar um ponto de verificação.

Classes aninhadas

aula RecuperarTPUEmbeddingADAMParametersGradAccumDebug.Options Atributos opcionais para RetrieveTPUEmbeddingADAMParametersGradAccumDebug

Constantes

Corda OP_NAME O nome desta operação, conforme conhecido pelo mecanismo principal do TensorFlow

Métodos Públicos

estática RetrieveTPUEmbeddingADAMParametersGradAccumDebug.Options
config (configuração de string)
Recuperação estáticaTPUEmbeddingADAMParametersGradAccumDebug
criar (escopo do escopo , NumShards longos, shardId longo, Opções... opções)
Método de fábrica para criar uma classe que agrupa uma nova operação RetrieveTPUEmbeddingADAMParametersGradAccumDebug.
Saída < TFloat32 >
gradienteAcumuladores ()
Parâmetro gradiente_accumulators atualizado pelo algoritmo de otimização ADAM.
Saída < TFloat32 >
momento ()
Momentos do parâmetro atualizados pelo algoritmo de otimização ADAM.
Saída < TFloat32 >
parâmetros ()
Parâmetros atualizados pelo algoritmo de otimização ADAM.
estática RetrieveTPUEmbeddingADAMParametersGradAccumDebug.Options
tableId (tableId longo)
estática RetrieveTPUEmbeddingADAMParametersGradAccumDebug.Options
nometabela (String nometabela)
Saída < TFloat32 >
velocidades ()
Velocidades dos parâmetros atualizadas pelo algoritmo de otimização ADAM.

Métodos herdados

Constantes

String final estática pública OP_NAME

O nome desta operação, conforme conhecido pelo mecanismo principal do TensorFlow

Valor constante: "RetrieveTPUEmbeddingADAMParametersGradAccumDebug"

Métodos Públicos

configuração pública estática RetrieveTPUEmbeddingADAMParametersGradAccumDebug.Options (configuração de string)

public static RetrieveTPUEmbeddingADAMParametersGradAccumDebug create ( Escopo de escopo , Long numShards, Long shardId, Opções... opções)

Método de fábrica para criar uma classe que agrupa uma nova operação RetrieveTPUEmbeddingADAMParametersGradAccumDebug.

Parâmetros
escopo escopo atual
opções carrega valores de atributos opcionais
Devoluções
  • uma nova instância de RetrieveTPUEmbeddingADAMParametersGradAccumDebug

Saída pública < TFloat32 > gradienteAccumulators ()

Parâmetro gradiente_accumulators atualizado pelo algoritmo de otimização ADAM.

Saída pública < TFloat32 > momenta ()

Momentos do parâmetro atualizados pelo algoritmo de otimização ADAM.

Saída pública < TFloat32 > parâmetros ()

Parâmetros atualizados pelo algoritmo de otimização ADAM.

public static RetrieveTPUEmbeddingADAMParametersGradAccumDebug.Options tableId (tableId longo)

public static RetrieveTPUEmbeddingADAMParametersGradAccumDebug.Options tableName (String tableName)

Saída pública < TFloat32 > velocidades ()

Velocidades dos parâmetros atualizadas pelo algoritmo de otimização ADAM.