Carregue parâmetros de incorporação do ADAM com suporte para depuração.
Uma operação que carrega parâmetros de otimização no HBM para incorporação. Deve ser precedido por uma operação ConfigureTPUEmbeddingHost que define a configuração correta da tabela de incorporação. Por exemplo, esta operação é usada para instalar parâmetros que são carregados de um ponto de verificação antes que um loop de treinamento seja executado.
Classes aninhadas
aula | LoadTPUEmbeddingADAMParametersGradAccumDebug.Options | Atributos opcionais para LoadTPUEmbeddingADAMParametersGradAccumDebug |
Métodos Públicos
LoadTPUEmbeddingADAMParametersGradAccumDebug.Options estático | config (configuração de string) |
LoadTPUEmbeddingADAMParametersGradAccumDebug estático | create (Escopo do escopo , parâmetros do operando <Float>, momentos do operando <Float>, velocidades do operando <Float>, gradienteAccumulators do operando <Float>, NumShards longos, shardId longo, Opções... opções) Método de fábrica para criar uma classe que agrupa uma nova operação LoadTPUEmbeddingADAMParametersGradAccumDebug. |
LoadTPUEmbeddingADAMParametersGradAccumDebug.Options estático | tableId (tableId longo) |
LoadTPUEmbeddingADAMParametersGradAccumDebug.Options estático | nometabela (String nometabela) |
Métodos herdados
Métodos Públicos
configuração pública estática LoadTPUEmbeddingADAMParametersGradAccumDebug.Options (configuração de string)
public static LoadTPUEmbeddingADAMParametersGradAccumDebug create (Escopo do escopo , parâmetros do operando <Float>, momentos do operando <Float>, velocidades do operando <Float>, gradienteAccumulators do operando <Float>, NumShards longos, shardId longo, Opções... opções)
Método de fábrica para criar uma classe que agrupa uma nova operação LoadTPUEmbeddingADAMParametersGradAccumDebug.
Parâmetros
escopo | escopo atual |
---|---|
parâmetros | Valor dos parâmetros utilizados no algoritmo de otimização ADAM. |
momento | Valor dos momentos utilizados no algoritmo de otimização ADAM. |
velocidades | Valor das velocidades utilizadas no algoritmo de otimização ADAM. |
gradienteAcumuladores | Valor de gradiente_accumulators usado no algoritmo de otimização ADAM. |
opções | carrega valores de atributos opcionais |
Devoluções
- uma nova instância de LoadTPUEmbeddingADAMParametersGradAccumDebug