Carregue parâmetros de incorporação do ADAM com suporte para depuração.
Uma operação que carrega parâmetros de otimização no HBM para incorporação. Deve ser precedido por uma operação ConfigureTPUEmbeddingHost que define a configuração correta da tabela de incorporação. Por exemplo, esta operação é usada para instalar parâmetros que são carregados de um ponto de verificação antes que um loop de treinamento seja executado.
Classes aninhadas
| aula | LoadTPUEmbeddingADAMParametersGradAccumDebug.Options | Atributos opcionais para LoadTPUEmbeddingADAMParametersGradAccumDebug | |
Métodos Públicos
| LoadTPUEmbeddingADAMParametersGradAccumDebug.Options estático | config (configuração de string) |
| LoadTPUEmbeddingADAMParametersGradAccumDebug estático | create (Escopo do escopo , parâmetros do operando <Float>, momentos do operando <Float>, velocidades do operando <Float>, gradienteAccumulators do operando <Float>, NumShards longos, shardId longo, Opções... opções) Método de fábrica para criar uma classe que agrupa uma nova operação LoadTPUEmbeddingADAMParametersGradAccumDebug. |
| LoadTPUEmbeddingADAMParametersGradAccumDebug.Options estático | tableId (tableId longo) |
| LoadTPUEmbeddingADAMParametersGradAccumDebug.Options estático | nometabela (String nometabela) |
Métodos herdados
Métodos Públicos
configuração pública estática LoadTPUEmbeddingADAMParametersGradAccumDebug.Options (configuração de string)
public static LoadTPUEmbeddingADAMParametersGradAccumDebug create (Escopo do escopo , parâmetros do operando <Float>, momentos do operando <Float>, velocidades do operando <Float>, gradienteAccumulators do operando <Float>, NumShards longos, shardId longo, Opções... opções)
Método de fábrica para criar uma classe que agrupa uma nova operação LoadTPUEmbeddingADAMParametersGradAccumDebug.
Parâmetros
| escopo | escopo atual |
|---|---|
| parâmetros | Valor dos parâmetros utilizados no algoritmo de otimização ADAM. |
| momento | Valor dos momentos utilizados no algoritmo de otimização ADAM. |
| velocidades | Valor das velocidades utilizadas no algoritmo de otimização ADAM. |
| gradienteAcumuladores | Valor de gradiente_accumulators usado no algoritmo de otimização ADAM. |
| opções | carrega valores de atributos opcionais |
Devoluções
- uma nova instância de LoadTPUEmbeddingADAMParametersGradAccumDebug