RetrieveTPUEmbeddingAdagradParametersGradAccumDebug

RetrieveTPUEmbeddingAdagradParametersGradAccumDebug classe final pública

Recupere parâmetros de incorporação Adagrad com suporte a depuração.

Uma operação que recupera os parâmetros de otimização da incorporação na memória do host. Deve ser precedido por um op ConfigureTPUEmbeddingHost que define a configuração correta da tabela de incorporação. Por exemplo, esta operação é usada para recuperar parâmetros atualizados antes de salvar um ponto de verificação.

Classes aninhadas

classe RetrieveTPUEmbeddingAdagradParametersGradAccumDebug.Options Atributos opcionais para RetrieveTPUEmbeddingAdagradParametersGradAccumDebug

Constantes

Fragmento OP_NAME O nome desta operação, conforme conhecido pelo motor principal TensorFlow

Métodos Públicos

Output < TFloat32 >
acumuladores ()
Acumuladores de parâmetros atualizados pelo algoritmo de otimização Adagrad.
estáticos RetrieveTPUEmbeddingAdagradParametersGradAccumDebug.Options
configuração (String config)
estática RetrieveTPUEmbeddingAdagradParametersGradAccumDebug
criar ( Scope escopo, numShards longo, longo shardId, Options ... Opções)
Método de fábrica para criar uma classe que envolve uma nova operação RetrieveTPUEmbeddingAdagradParametersGradAccumDebug.
Output < TFloat32 >
gradientAccumulators ()
Parâmetro gradiente_acumuladores atualizados pelo algoritmo de otimização Adagrad.
Output < TFloat32 >
parâmetros ()
Parâmetros de parâmetros atualizados pelo algoritmo de otimização Adagrad.
estáticos RetrieveTPUEmbeddingAdagradParametersGradAccumDebug.Options
tableId (Long tableId)
estáticos RetrieveTPUEmbeddingAdagradParametersGradAccumDebug.Options
tableName (String tableName)

Métodos herdados

Constantes

nome_op final String public static

O nome desta operação, conforme conhecido pelo motor principal TensorFlow

Valor constante: "RetrieveTPUEmbeddingAdagradParametersGradAccumDebug"

Métodos Públicos

pública Output < TFloat32 > acumuladores ()

Acumuladores de parâmetros atualizados pelo algoritmo de otimização Adagrad.

public static RetrieveTPUEmbeddingAdagradParametersGradAccumDebug.Options de configuração (config String)

public static RetrieveTPUEmbeddingAdagradParametersGradAccumDebug criar ( Scope escopo, numShards longo, longo shardId, Options ... Opções)

Método de fábrica para criar uma classe que envolve uma nova operação RetrieveTPUEmbeddingAdagradParametersGradAccumDebug.

Parâmetros
alcance escopo atual
opções carrega valores de atributos opcionais
Devoluções
  • uma nova instância de RetrieveTPUEmbeddingAdagradParametersGradAccumDebug

pública Output < TFloat32 > gradientAccumulators ()

Parâmetro gradiente_acumuladores atualizados pelo algoritmo de otimização Adagrad.

pública Output < TFloat32 > parâmetros ()

Parâmetros de parâmetros atualizados pelo algoritmo de otimização Adagrad.

public static RetrieveTPUEmbeddingAdagradParametersGradAccumDebug.Options tableName (String tableName)