LoadTPUEmbeddingStochasticGradientDescentParametersGradAccumDebug

classe finale publique LoadTPUEmbeddingStochasticGradientDescentParametersGradAccumDebug

Chargez les paramètres d'intégration SGD.

Une opération qui charge les paramètres d'optimisation dans HBM pour l'intégration. Doit être précédé d'une opération ConfigureTPUEmbeddingHost qui configure la configuration correcte de la table d'intégration. Par exemple, cette opération est utilisée pour installer les paramètres chargés à partir d'un point de contrôle avant l'exécution d'une boucle de formation.

Classes imbriquées

classe LoadTPUEmbeddingStochasticGradientDescentParametersGradAccumDebug.Options Attributs facultatifs pour LoadTPUEmbeddingStochasticGradientDescentParametersGradAccumDebug

Constantes

Chaîne OP_NAME Le nom de cette opération, tel que connu par le moteur principal TensorFlow

Méthodes publiques

statique LoadTPUEmbeddingStochasticGradientDescentParametersGradAccumDebug.Options
config (configuration de chaîne)
charge statiqueTPUEmbeddingStochasticGradientDescentParametersGradAccumDebug
créer ( Scope scope, Operand < TFloat32 > paramètres, Operand < TFloat32 > gradientAccumulators, Long numShards, Long shardId, Options... options)
Méthode d'usine pour créer une classe encapsulant une nouvelle opération LoadTPUEmbeddingStochasticGradientDescentParametersGradAccumDebug.
statique LoadTPUEmbeddingStochasticGradientDescentParametersGradAccumDebug.Options
ID de table (ID de table longue)
statique LoadTPUEmbeddingStochasticGradientDescentParametersGradAccumDebug.Options
tableName (String tableName)

Méthodes héritées

Constantes

chaîne finale statique publique OP_NAME

Le nom de cette opération, tel que connu par le moteur principal TensorFlow

Valeur constante : "LoadTPUEmbeddingStochasticGradientDescentParametersGradAccumDebug"

Méthodes publiques

configuration publique statique LoadTPUEmbeddingStochasticGradientDescentParametersGradAccumDebug.Options (configuration de chaîne)

public static LoadTPUEmbeddingStochasticGradientDescentParametersGradAccumDebug créer ( Scope scope, Operand < TFloat32 > paramètres, Operand < TFloat32 > gradientAccumulators, Long numShards, Long shardId, Options... options)

Méthode d'usine pour créer une classe encapsulant une nouvelle opération LoadTPUEmbeddingStochasticGradientDescentParametersGradAccumDebug.

Paramètres
portée portée actuelle
paramètres Valeur des paramètres utilisés dans l'algorithme d'optimisation de descente de gradient stochastique.
gradientAccumulateurs Valeur de gradient_accumulators utilisée dans l'algorithme d'optimisation Adadelta.
choix porte des valeurs d'attributs facultatifs
Retour
  • une nouvelle instance de LoadTPUEmbeddingStochasticGradientDescentParametersGradAccumDebug