LoadTPUEIncorporationStochasticGradientDescentParametersGradAccumDebug

classe finale publique LoadTPUEmbeddingStochasticGradientDescentParametersGradAccumDebug

Chargez les paramètres d'intégration SGD.

Une opération qui charge les paramètres d'optimisation dans HBM pour l'intégration. Doit être précédé d'une opération ConfigureTPUEmbeddingHost qui configure la configuration correcte de la table d'intégration. Par exemple, cette opération est utilisée pour installer les paramètres chargés à partir d'un point de contrôle avant l'exécution d'une boucle de formation.

Classes imbriquées

classe LoadTPUEmbeddingStochasticGradientDescentParametersGradAccumDebug.Options Attributs facultatifs pour LoadTPUEmbeddingStochasticGradientDescentParametersGradAccumDebug

Méthodes publiques

statique LoadTPUEmbeddingStochasticGradientDescentParametersGradAccumDebug.Options
config (configuration de chaîne)
charge statiqueTPUEmbeddingStochasticGradientDescentParametersGradAccumDebug
créer (portée de portée , paramètres d'opérande <Float>, opérandes <Float> gradientAccumulators, options Long numShards, Long shardId, Options... )
Méthode d'usine pour créer une classe encapsulant une nouvelle opération LoadTPUEmbeddingStochasticGradientDescentParametersGradAccumDebug.
statique LoadTPUEmbeddingStochasticGradientDescentParametersGradAccumDebug.Options
ID de table (ID de table longue)
statique LoadTPUEmbeddingStochasticGradientDescentParametersGradAccumDebug.Options
tableName (String tableName)

Méthodes héritées

Méthodes publiques

configuration publique statique LoadTPUEmbeddingStochasticGradientDescentParametersGradAccumDebug.Options (configuration de chaîne)

public static LoadTPUEmbeddingStochasticGradientDescentParametersGradAccumDebug créer ( Scope scope, Operand <Float> paramètres, Operand <Float> gradientAccumulators, Long numShards, Long shardId, Options... options)

Méthode d'usine pour créer une classe encapsulant une nouvelle opération LoadTPUEmbeddingStochasticGradientDescentParametersGradAccumDebug.

Paramètres
portée portée actuelle
paramètres Valeur des paramètres utilisés dans l'algorithme d'optimisation de descente de gradient stochastique.
gradientAccumulateurs Valeur de gradient_accumulators utilisée dans l'algorithme d'optimisation Adadelta.
choix porte des valeurs d'attributs facultatifs
Retour
  • une nouvelle instance de LoadTPUEmbeddingStochasticGradientDescentParametersGradAccumDebug