RetrieveTPUEmbeddingRMSPropParametersGradAccumDebug

classe finale publique RetrieveTPUEmbeddingRMSPropParametersGradAccumDebug

Récupérez les paramètres d’intégration de RMSProp avec la prise en charge du débogage.

Une opération qui récupère les paramètres d'optimisation de l'intégration dans la mémoire hôte. Doit être précédé d'une opération ConfigureTPUEmbeddingHost qui configure la configuration correcte de la table d'intégration. Par exemple, cette opération est utilisée pour récupérer les paramètres mis à jour avant d'enregistrer un point de contrôle.

Classes imbriquées

classe Récupérer TPUEmbeddingRMSPropParametersGradAccumDebug.Options Attributs facultatifs pour RetrieveTPUEmbeddingRMSPropParametersGradAccumDebug

Constantes

Chaîne OP_NAME Le nom de cette opération, tel que connu par le moteur principal TensorFlow

Méthodes publiques

statique RécupérerTPUEmbeddingRMSPropParametersGradAccumDebug.Options
config (configuration de chaîne)
statique RécupérerTPUEmbeddingRMSPropParametersGradAccumDebug
créer ( Scope scope, Long numShards, Long shardId, Options... options)
Méthode d'usine pour créer une classe encapsulant une nouvelle opération RetrieveTPUEmbeddingRMSPropParametersGradAccumDebug.
Sortie < TFloat32 >
gradientAccumulateurs ()
Paramètre gradient_accumulators mis à jour par l'algorithme d'optimisation RMSProp.
Sortie < TFloat32 >
maman ()
Paramètres maman mis à jour par l'algorithme d'optimisation RMSProp.
Sortie < TFloat32 >
MS ()
Paramètre ms mis à jour par l'algorithme d'optimisation RMSProp.
Sortie < TFloat32 >
paramètres ()
Paramètres de paramètres mis à jour par l'algorithme d'optimisation RMSProp.
statique RécupérerTPUEmbeddingRMSPropParametersGradAccumDebug.Options
ID de table (ID de table longue)
statique RécupérerTPUEmbeddingRMSPropParametersGradAccumDebug.Options
tableName (String tableName)

Méthodes héritées

Constantes

chaîne finale statique publique OP_NAME

Le nom de cette opération, tel que connu par le moteur principal TensorFlow

Valeur constante : "RetrieveTPUEmbeddingRMSPropParametersGradAccumDebug"

Méthodes publiques

configuration publique statique RetrieveTPUEmbeddingRMSPropParametersGradAccumDebug.Options (configuration de chaîne)

public static RetrieveTPUEmbeddingRMSPropParametersGradAccumDebug create ( Scope scope, Long numShards, Long shardId, Options... options)

Méthode d'usine pour créer une classe encapsulant une nouvelle opération RetrieveTPUEmbeddingRMSPropParametersGradAccumDebug.

Paramètres
portée portée actuelle
choix porte des valeurs d'attributs facultatifs
Retour
  • une nouvelle instance de RetrieveTPUEmbeddingRMSPropParametersGradAccumDebug

Sortie publique < TFloat32 > gradientAccumulators ()

Paramètre gradient_accumulators mis à jour par l'algorithme d'optimisation RMSProp.

Sortie publique < TFloat32 > maman ()

Paramètres maman mis à jour par l'algorithme d'optimisation RMSProp.

Sortie publique < TFloat32 > ms ()

Paramètre ms mis à jour par l'algorithme d'optimisation RMSProp.

Sortie publique < TFloat32 > paramètres ()

Paramètres de paramètres mis à jour par l'algorithme d'optimisation RMSProp.

public static RetrieveTPUEmbeddingRMSPropParametersGradAccumDebug.Options tableName (String tableName)