Recuperar parámetros de incrustación de Adagrad.
Una operación que recupera los parámetros de optimización de la incrustación en la memoria del host. Debe estar precedido por una operación ConfigureTPUEmbeddingHost que establece la configuración correcta de la tabla de incrustación. Por ejemplo, esta opción se usa para recuperar parámetros actualizados antes de guardar un punto de control.
Clases anidadas
clase | RecuperarTPUEmbeddingAdagradParameters.Options | Atributos opcionales para RetrieveTPUEmbeddingAdagradParameters |
Métodos públicos
Salida <Flotante> | acumuladores () Acumuladores de parámetros actualizados por el algoritmo de optimización de Adagrad. |
estático RetrieveTPUEmbeddingAdagradParameters.Options | config (Configuración de cadena) |
static RetrieveTPUEmbeddingAdagradParameters | crear ( Ámbito de alcance, Long numShards, Long shardId, Opciones... opciones) Método de fábrica para crear una clase que envuelve una nueva operación RetrieveTPUEmbeddingAdagradParameters. |
Salida <Flotante> | parámetros () Parámetros de parámetros actualizados por el algoritmo de optimización de Adagrad. |
estático RetrieveTPUEmbeddingAdagradParameters.Options | tableId (Id de tabla larga) |
estático RetrieveTPUEmbeddingAdagradParameters.Options | tableName (Cadena tableName) |
Métodos Heredados
Métodos públicos
public Output <Float> acumuladores ()
Acumuladores de parámetros actualizados por el algoritmo de optimización de Adagrad.
configuración estática pública RetrieveTPUEmbeddingAdagradParameters.Options ( configuración de cadena)
public static RetrieveTPUEmbeddingAdagradParameters create ( Scope scope, Long numShards, Long shardId, Options... opciones)
Método de fábrica para crear una clase que envuelve una nueva operación RetrieveTPUEmbeddingAdagradParameters.
Parámetros
alcance | alcance actual |
---|---|
opciones | lleva valores de atributos opcionales |
Devoluciones
- una nueva instancia de RetrieveTPUEmbeddingAdagradParameters
Parámetros públicos de salida <flotante> ()
Parámetros de parámetros actualizados por el algoritmo de optimización de Adagrad.