RetrieveTPUEmbeddingADAMParametersGradAccumDebug

RetrieveTPUEmbeddingADAMParametersGradAccumDebug classe final pública

Recupere os parâmetros de incorporação do ADAM com suporte para depuração.

Uma operação que recupera os parâmetros de otimização da incorporação na memória do host. Deve ser precedido por um op ConfigureTPUEmbeddingHost que define a configuração correta da tabela de incorporação. Por exemplo, esta operação é usada para recuperar parâmetros atualizados antes de salvar um ponto de verificação.

Classes aninhadas

classe RetrieveTPUEmbeddingADAMParametersGradAccumDebug.Options Atributos opcionais para RetrieveTPUEmbeddingADAMParametersGradAccumDebug

Constantes

Fragmento OP_NAME O nome desta operação, conforme conhecido pelo motor principal TensorFlow

Métodos Públicos

estáticos RetrieveTPUEmbeddingADAMParametersGradAccumDebug.Options
configuração (String config)
estática RetrieveTPUEmbeddingADAMParametersGradAccumDebug
criar ( Scope escopo, numShards longo, longo shardId, Options ... Opções)
Método de fábrica para criar uma classe que envolve uma nova operação RetrieveTPUEmbeddingADAMParametersGradAccumDebug.
Output < TFloat32 >
gradientAccumulators ()
Parâmetro gradiente_acumuladores atualizados pelo algoritmo de otimização ADAM.
Output < TFloat32 >
momentos ()
Parâmetro momentum atualizado pelo algoritmo de otimização ADAM.
Output < TFloat32 >
parâmetros ()
Parâmetros de parâmetro atualizados pelo algoritmo de otimização ADAM.
estáticos RetrieveTPUEmbeddingADAMParametersGradAccumDebug.Options
tableId (Long tableId)
estáticos RetrieveTPUEmbeddingADAMParametersGradAccumDebug.Options
tableName (String tableName)
Output < TFloat32 >
velocidades ()
Velocidades de parâmetro atualizadas pelo algoritmo de otimização ADAM.

Métodos herdados

Constantes

nome_op final String public static

O nome desta operação, conforme conhecido pelo motor principal TensorFlow

Valor constante: "RetrieveTPUEmbeddingADAMParametersGradAccumDebug"

Métodos Públicos

public static RetrieveTPUEmbeddingADAMParametersGradAccumDebug.Options de configuração (config String)

public static RetrieveTPUEmbeddingADAMParametersGradAccumDebug criar ( Scope escopo, numShards longo, longo shardId, Options ... Opções)

Método de fábrica para criar uma classe que envolve uma nova operação RetrieveTPUEmbeddingADAMParametersGradAccumDebug.

Parâmetros
alcance escopo atual
opções carrega valores de atributos opcionais
Devoluções
  • uma nova instância de RetrieveTPUEmbeddingADAMParametersGradAccumDebug

pública Output < TFloat32 > gradientAccumulators ()

Parâmetro gradiente_acumuladores atualizados pelo algoritmo de otimização ADAM.

pública Output < TFloat32 > momentos ()

Parâmetro momentum atualizado pelo algoritmo de otimização ADAM.

pública Output < TFloat32 > parâmetros ()

Parâmetros de parâmetro atualizados pelo algoritmo de otimização ADAM.

public static RetrieveTPUEmbeddingADAMParametersGradAccumDebug.Options tableId (Long tableId)

public static RetrieveTPUEmbeddingADAMParametersGradAccumDebug.Options tableName (String tableName)

pública Output < TFloat32 > velocidades ()

Velocidades de parâmetro atualizadas pelo algoritmo de otimização ADAM.