Cargue parámetros de incrustación de ADAM con soporte de depuración.
Una operación que carga parámetros de optimización en HBM para incrustarlos. Debe ir precedido de una operación ConfigureTPUEmbeddingHost que establezca la configuración correcta de la tabla de inserción. Por ejemplo, esta operación se usa para instalar parámetros que se cargan desde un punto de control antes de que se ejecute un ciclo de entrenamiento.
Clases anidadas
clase | LoadTPUEmbeddingADAMParametersGradAccumDebug.Options | Atributos opcionales para LoadTPUEmbeddingADAMParametersGradAccumDebug |
Métodos públicos
static LoadTPUEmbeddingADAMParametersGradAccumDebug.Options | config ( configuración de cadena) |
Carga estáticaTPUEmbeddingADAMParametersGradAccumDebug | crear ( alcance de alcance, operando <Float> parámetros, operando <Float> momentos, operando <Float> velocidades, operando <Float> gradiente Acumuladores, Long numShards, Long shardId, Opciones ... opciones) Método de fábrica para crear una clase que envuelva una nueva operación LoadTPUEmbeddingADAMParametersGradAccumDebug. |
static LoadTPUEmbeddingADAMParametersGradAccumDebug.Options | tableId (Long tableId) |
static LoadTPUEmbeddingADAMParametersGradAccumDebug.Options | tableName (cadena tableName) |
Métodos heredados
Métodos públicos
public static LoadTPUEmbeddingADAMParametersGradAccumDebug Crear ( Alcance alcance, operando <> Float parámetros, operando <> Float Momenta, operando <> Float velocidades, operando <> Float gradientAccumulators, numShards largo, largo shardId, Opciones ... opciones)
Método de fábrica para crear una clase que envuelva una nueva operación LoadTPUEmbeddingADAMParametersGradAccumDebug.
Parámetros
alcance | alcance actual |
---|---|
parámetros | Valor de los parámetros utilizados en el algoritmo de optimización de ADAM. |
Momentos | Valor de los momentos utilizados en el algoritmo de optimización de ADAM. |
velocidades | Valor de las velocidades utilizadas en el algoritmo de optimización de ADAM. |
gradiente Acumuladores | Valor de los acumuladores de gradientes utilizados en el algoritmo de optimización de ADAM. |
opciones | lleva valores de atributos opcionales |
Devoluciones
- una nueva instancia de LoadTPUEmbeddingADAMParametersGradAccumDebug