Mettez à jour les entrées pertinentes dans '*var' et '*accum' selon le schéma adagrad.
C'est pour les lignes pour lesquelles nous avons grad, nous mettons à jour var et accumulons comme suit : $$accum += grad * grad$$$$var -= lr * grad * (1 / sqrt(accum))$$
Classes imbriquées
classe | SparseApplyAdagradV2.Options | Attributs facultatifs pour SparseApplyAdagradV2 |
Méthodes publiques
Sortie <T> | comme Sortie () Renvoie le handle symbolique d'un tenseur. |
statique <T, U étend le nombre> SparseApplyAdagradV2 <T> | |
Sortie <T> | dehors () Identique à "var". |
SparseApplyAdagradV2.Options statique | updateSlots (booléen updateSlots) |
SparseApplyAdagradV2.Options statique | useLocking (booléen useLocking) |
Méthodes héritées
Méthodes publiques
sortie publique <T> asOutput ()
Renvoie le handle symbolique d'un tenseur.
Les entrées des opérations TensorFlow sont les sorties d'une autre opération TensorFlow. Cette méthode est utilisée pour obtenir un handle symbolique qui représente le calcul de l’entrée.
public static SparseApplyAdagradV2 <T> create ( Portée de la portée, Opérande <T> var, Opérande <T> accum, Opérande <T> lr, Opérande <T> epsilon, Opérande <T> grad, Opérande <U> indices, Options.. .options )
Méthode d'usine pour créer une classe encapsulant une nouvelle opération SparseApplyAdagradV2.
Paramètres
portée | portée actuelle |
---|---|
var | Doit provenir d'une variable (). |
cumuler | Doit provenir d'une variable (). |
mdr | Taux d'apprentissage. Ça doit être un scalaire. |
épsilon | Facteur constant. Ça doit être un scalaire. |
diplômé | Le dégradé. |
indices | Un vecteur d'indices dans la première dimension de var et cumul. |
choix | porte des valeurs d'attributs facultatifs |
Retours
- une nouvelle instance de SparseApplyAdagradV2
public statique SparseApplyAdagradV2.Options useLocking (booléen useLocking)
Paramètres
utiliserVerrouillage | Si `True`, la mise à jour des tenseurs var et cumul sera protégée par un verrou ; sinon, le comportement n'est pas défini, mais peut présenter moins de conflits. |
---|