Chargez les paramètres Adadelta avec prise en charge du débogage.
Une opération qui charge les paramètres d'optimisation dans HBM pour l'intégration. Doit être précédé d'une opération ConfigureTPUEmbeddingHost qui configure la configuration correcte de la table d'intégration. Par exemple, cette opération est utilisée pour installer les paramètres chargés à partir d'un point de contrôle avant l'exécution d'une boucle de formation.
Classes imbriquées
classe | LoadTPUEmbeddingAdadeltaParametersGradAccumDebug.Options | Attributs facultatifs pour LoadTPUEmbeddingAdadeltaParametersGradAccumDebug |
Méthodes publiques
statique LoadTPUEmbeddingAdadeltaParametersGradAccumDebug.Options | config (configuration de chaîne) |
statique LoadTPUEmbeddingAdadeltaParametersGradAccumDebug | créer (portée de portée , paramètres d'opérande <Float>, accumulateurs d'opérande <Float>, mises à jour d'opérande <Float>, gradientAccumulators d'opérande <Float>, options Long numShards, Long shardId, Options... ) Méthode d'usine pour créer une classe encapsulant une nouvelle opération LoadTPUEmbeddingAdadeltaParametersGradAccumDebug. |
statique LoadTPUEmbeddingAdadeltaParametersGradAccumDebug.Options | ID de table (ID de table longue) |
statique LoadTPUEmbeddingAdadeltaParametersGradAccumDebug.Options | tableName (String tableName) |
Méthodes héritées
Méthodes publiques
configuration publique statique LoadTPUEmbeddingAdadeltaParametersGradAccumDebug.Options (configuration de chaîne)
public static LoadTPUEmbeddingAdadeltaParametersGradAccumDebug créer (portée de portée , paramètres d'opérande <Float>, accumulateurs d'opérande <Float>, mises à jour d' opérande <Float>, accumulateurs de gradient d'opérande <Float>, options Long numShards, Long shardId, Options... )
Méthode d'usine pour créer une classe encapsulant une nouvelle opération LoadTPUEmbeddingAdadeltaParametersGradAccumDebug.
Paramètres
portée | portée actuelle |
---|---|
paramètres | Valeur des paramètres utilisés dans l'algorithme d'optimisation Adadelta. |
accumulateurs | Valeur des accumulateurs utilisés dans l'algorithme d'optimisation Adadelta. |
mises à jour | Valeur des mises à jour utilisées dans l'algorithme d'optimisation Adadelta. |
gradientAccumulateurs | Valeur de gradient_accumulators utilisée dans l'algorithme d'optimisation Adadelta. |
choix | porte des valeurs d'attributs facultatifs |
Retour
- une nouvelle instance de LoadTPUEmbeddingAdadeltaParametersGradAccumDebug