Recupere los parámetros de incorporación de ADAM con soporte de depuración.
Una operación que recupera parámetros de optimización al incrustarlos en la memoria del host. Debe estar precedido por una operación ConfigureTPUEmbeddingHost que establezca la configuración correcta de la tabla de incrustación. Por ejemplo, esta operación se utiliza para recuperar parámetros actualizados antes de guardar un punto de control.
Clases anidadas
clase | RecuperarTPUEmbeddingADAMParametersGradAccumDebug.Options | Atributos opcionales para RetrieveTPUEmbeddingADAMParametersGradAccumDebug |
Métodos públicos
Recuperación estáticaTPUEmbeddingADAMParametersGradAccumDebug.Options | config (configuración de cadena) |
Recuperación estáticaTPUEmbeddingADAMParametersGradAccumDebug | crear (alcance alcance , Long numShards, Long shardId, Opciones... opciones) Método de fábrica para crear una clase que envuelve una nueva operación RetrieveTPUEmbeddingADAMParametersGradAccumDebug. |
Salida <Flotante> | gradientacumuladores () Parámetro gradient_accumulators actualizado por el algoritmo de optimización ADAM. |
Salida <Flotante> | momentos () Momentos de parámetros actualizados por el algoritmo de optimización ADAM. |
Salida <Flotante> | parámetros () Parámetros de parámetros actualizados por el algoritmo de optimización ADAM. |
Recuperación estáticaTPUEmbeddingADAMParametersGradAccumDebug.Options | tableId (Id de tabla larga) |
Recuperación estáticaTPUEmbeddingADAMParametersGradAccumDebug.Options | nombre de tabla (nombre de tabla de cadena) |
Salida <Flotante> | velocidades () Velocidades de parámetros actualizadas por el algoritmo de optimización ADAM. |
Métodos heredados
Métodos públicos
configuración pública estática RetrieveTPUEmbeddingADAMParametersGradAccumDebug.Options (configuración de cadena)
public static RetrieveTPUEmbeddingADAMParametersGradAccumDebug create (alcance alcance , Long numShards, Long shardId, Opciones... opciones)
Método de fábrica para crear una clase que envuelve una nueva operación RetrieveTPUEmbeddingADAMParametersGradAccumDebug.
Parámetros
alcance | alcance actual |
---|---|
opciones | lleva valores de atributos opcionales |
Devoluciones
- una nueva instancia de RetrieveTPUEmbeddingADAMParametersGradAccumDebug
Salida pública <Float> gradientAcumuladores ()
Parámetro gradient_accumulators actualizado por el algoritmo de optimización ADAM.
Salida pública <Float> momentos ()
Momentos de parámetros actualizados por el algoritmo de optimización ADAM.
Parámetros públicos de salida <Float> ()
Parámetros de parámetros actualizados por el algoritmo de optimización ADAM.
público estático RetrieveTPUEmbeddingADAMParametersGradAccumDebug.Options tableName (String tableName)
velocidades públicas de salida <Float> ()
Velocidades de parámetros actualizadas por el algoritmo de optimización ADAM.