ResourceApplyAdagrad

classe finale publique ResourceApplyAdagrad

Mettez à jour '*var' selon le schéma adagrad.

accumulation += grad * grad var -= lr * grad * (1 / (sqrt(accum) + epsilon))

Classes imbriquées

classe ResourceApplyAdagrad.Options Attributs facultatifs pour ResourceApplyAdagrad

Constantes

Chaîne OP_NAME Le nom de cette opération, tel que connu par le moteur principal TensorFlow

Méthodes publiques

statique <T étend TType > ResourceApplyAdagrad
create ( Scope scope, Opérande <?> var, Opérande <?> accum, Opérande <T> lr, Opérande <T> epsilon, Opérande <T> grad, Options... options)
Méthode d'usine pour créer une classe encapsulant une nouvelle opération ResourceApplyAdagrad.
statique ResourceApplyAdagrad.Options
updateSlots (booléen updateSlots)
statique ResourceApplyAdagrad.Options
useLocking (booléen useLocking)

Méthodes héritées

Constantes

chaîne finale statique publique OP_NAME

Le nom de cette opération, tel que connu par le moteur principal TensorFlow

Valeur constante : "ResourceApplyAdagradV2"

Méthodes publiques

public static ResourceApplyAdagrad create ( Scope scope, Operand <?> var, Operand <?> accum, Operand <T> lr, Operand <T> epsilon, Operand <T> grad, Options... options)

Méthode d'usine pour créer une classe encapsulant une nouvelle opération ResourceApplyAdagrad.

Paramètres
portée portée actuelle
var Doit provenir d'une variable ().
cumuler Doit provenir d'une variable ().
g / D Facteur d'échelle. Ça doit être un scalaire.
épsilon Facteur constant. Ça doit être un scalaire.
diplômé Le dégradé.
choix porte des valeurs d'attributs facultatifs
Retour
  • une nouvelle instance de ResourceApplyAdagrad

public statique ResourceApplyAdagrad.Options updateSlots (booléen updateSlots)

public statique ResourceApplyAdagrad.Options useLocking (booléen useLocking)

Paramètres
utiliserVerrouillage Si `True`, la mise à jour des tenseurs var et cumul sera protégée par un verrou ; sinon, le comportement n'est pas défini, mais peut présenter moins de conflits.