Récupérez les paramètres d’intégration d’Adagrad.
Une opération qui récupère les paramètres d'optimisation de l'intégration dans la mémoire hôte. Doit être précédé d'une opération ConfigureTPUEmbeddingHost qui configure la configuration correcte de la table d'intégration. Par exemple, cette opération est utilisée pour récupérer les paramètres mis à jour avant d'enregistrer un point de contrôle.
Classes imbriquées
classe | RécupérerTPUEmbeddingAdagradParameters.Options | Attributs facultatifs pour RetrieveTPUEmbeddingAdagradParameters |
Méthodes publiques
Sortie <Flottant> | accumulateurs () Accumulateurs de paramètres mis à jour par l'algorithme d'optimisation Adagrad. |
statique RécupérerTPUEmbeddingAdagradParameters.Options | config (configuration de chaîne) |
static RetrieveTPUEmbeddingAdagradParameters | créer ( Scope scope, Long numShards, Long shardId, Options... options) Méthode d'usine pour créer une classe encapsulant une nouvelle opération RetrieveTPUEmbeddingAdagradParameters. |
Sortie <Flottant> | paramètres () Paramètres des paramètres mis à jour par l'algorithme d'optimisation Adagrad. |
statique RécupérerTPUEmbeddingAdagradParameters.Options | ID de table (ID de table longue) |
statique RécupérerTPUEmbeddingAdagradParameters.Options | tableName (String tableName) |
Méthodes héritées
Méthodes publiques
public Output <Float> accumulateurs ()
Accumulateurs de paramètres mis à jour par l'algorithme d'optimisation Adagrad.
configuration publique statique RetrieveTPUEmbeddingAdagradParameters.Options (configuration de chaîne)
public static RetrieveTPUEmbeddingAdagradParameters créer ( Scope scope, Long numShards, Long shardId, Options... options)
Méthode d'usine pour créer une classe encapsulant une nouvelle opération RetrieveTPUEmbeddingAdagradParameters.
Paramètres
portée | portée actuelle |
---|---|
choix | porte des valeurs d'attributs facultatifs |
Retour
- une nouvelle instance de RetrieveTPUEmbeddingAdagradParameters
Paramètres de sortie publique <Float> ()
Paramètres des paramètres mis à jour par l'algorithme d'optimisation Adagrad.