SparseApplyMomentum

classe finale publique SparseApplyMomentum

Mettez à jour les entrées pertinentes dans '*var' et '*accum' selon le schéma momentum.

Définissez use_nesterov = True si vous souhaitez utiliser l'élan Nesterov.

C'est pour les lignes pour lesquelles nous avons grad, nous mettons à jour var et accumulons comme suit :

$$accum = accum * momentum + grad$$$$var -= lr * accum$$

Classes imbriquées

classe SparseApplyMomentum.Options Attributs facultatifs pour SparseApplyMomentum

Constantes

Chaîne OP_NAME Le nom de cette opération, tel que connu par le moteur principal TensorFlow

Méthodes publiques

Sortie <T>
comme Sortie ()
Renvoie le handle symbolique du tenseur.
statique <T étend TType > SparseApplyMomentum <T>
créer ( Portée de portée , Opérande <T> var, Opérande <T> accum, Opérande <T> lr, Opérande <T> grad, Opérande <? étend TNumber > indices, Opérande <T> momentum, Options... options)
Méthode d'usine pour créer une classe encapsulant une nouvelle opération SparseApplyMomentum.
Sortie <T>
dehors ()
Identique à "var".
SparseApplyMomentum.Options statique
useLocking (booléen useLocking)
SparseApplyMomentum.Options statique
useNesterov (booléen useNesterov)

Méthodes héritées

Constantes

chaîne finale statique publique OP_NAME

Le nom de cette opération, tel que connu par le moteur principal TensorFlow

Valeur constante : "SparseApplyMomentum"

Méthodes publiques

sortie publique <T> asOutput ()

Renvoie le handle symbolique du tenseur.

Les entrées des opérations TensorFlow sont les sorties d'une autre opération TensorFlow. Cette méthode est utilisée pour obtenir un handle symbolique qui représente le calcul de l’entrée.

public static SparseApplyMomentum <T> create ( Scope scope, Operand <T> var, Operand <T> accum, Operand <T> lr, Operand <T> grad, Operand <? extends TNumber > indices, Operand <T> momentum, Options ... options)

Méthode d'usine pour créer une classe encapsulant une nouvelle opération SparseApplyMomentum.

Paramètres
portée portée actuelle
var Doit provenir d'une variable ().
cumuler Doit provenir d'une variable ().
g / D Taux d'apprentissage. Ça doit être un scalaire.
diplômé Le dégradé.
indices Un vecteur d'indices dans la première dimension de var et cumul.
élan Élan. Ça doit être un scalaire.
choix porte des valeurs d'attributs facultatifs
Retour
  • une nouvelle instance de SparseApplyMomentum

sortie publique <T> out ()

Identique à "var".

public statique SparseApplyMomentum.Options useLocking (booléen useLocking)

Paramètres
utiliserVerrouillage Si `True`, la mise à jour des tenseurs var et cumul sera protégée par un verrou ; sinon, le comportement n'est pas défini, mais peut présenter moins de conflits.

public statique SparseApplyMomentum.Options useNesterov (booléen useNesterov)

Paramètres
utiliser Nesterov Si « Vrai », le tenseur passé au calcul de la graduation sera var - lr * momentum * accum, donc à la fin, la var que vous obtenez est en fait var - lr * momentum * accum.