LoadTPUEmbeddingStochasticGradientDescentParametersGradAccumDebug

LoadTPUEmbeddingStochasticGradientDescentParametersGradAccumDebug classe final pública

Carregue os parâmetros de incorporação SGD.

Uma operação que carrega parâmetros de otimização no HBM para incorporação. Deve ser precedido por um op ConfigureTPUEmbeddingHost que define a configuração correta da tabela de incorporação. Por exemplo, esta operação é usada para instalar parâmetros que são carregados de um ponto de verificação antes que um loop de treinamento seja executado.

Classes aninhadas

classe LoadTPUEmbeddingStochasticGradientDescentParametersGradAccumDebug.Options Atributos opcionais para LoadTPUEmbeddingStochasticGradientDescentParametersGradAccumDebug

Constantes

Corda OP_NAME O nome desta operação, conforme conhecido pelo motor principal TensorFlow

Métodos Públicos

estáticos LoadTPUEmbeddingStochasticGradientDescentParametersGradAccumDebug.Options
configuração (String config)
estática LoadTPUEmbeddingStochasticGradientDescentParametersGradAccumDebug
criar ( Scope escopo, Operando < TFloat32 > parâmetros, Operando < TFloat32 > gradientAccumulators, Longo numShards, Long shardId, Opções ... Opções)
Método de fábrica para criar uma classe que envolve uma nova operação LoadTPUEmbeddingStochasticGradientDescentParametersGradAccumDebug.
estáticos LoadTPUEmbeddingStochasticGradientDescentParametersGradAccumDebug.Options
tableId (Long tableId)
estáticos LoadTPUEmbeddingStochasticGradientDescentParametersGradAccumDebug.Options
tableName (String tableName)

Métodos herdados

Constantes

nome_op final String public static

O nome desta operação, conforme conhecido pelo motor principal TensorFlow

Valor constante: "LoadTPUEmbeddingStochasticGradientDescentParametersGradAccumDebug"

Métodos Públicos

public static LoadTPUEmbeddingStochasticGradientDescentParametersGradAccumDebug.Options de configuração (config String)

public static LoadTPUEmbeddingStochasticGradientDescentParametersGradAccumDebug criar ( Scope escopo, Operando < TFloat32 > parâmetros, Operando < TFloat32 > gradientAccumulators, Longo numShards, Long shardId, Opções ... Opções)

Método de fábrica para criar uma classe que envolve uma nova operação LoadTPUEmbeddingStochasticGradientDescentParametersGradAccumDebug.

Parâmetros
alcance escopo atual
parametros Valor dos parâmetros usados ​​no algoritmo de otimização da descida do gradiente estocástico.
gradiente Acumuladores Valor de gradiente_acumuladores usados ​​no algoritmo de otimização Adadelta.
opções carrega valores de atributos opcionais
Devoluções
  • uma nova instância de LoadTPUEmbeddingStochasticGradientDescentParametersGradAccumDebug