Optimiseur qui implémente l'algorithme d'Adagrad.
Adagrad est un optimiseur avec des taux d'apprentissage spécifiques aux paramètres, qui sont adaptés en fonction de la fréquence à laquelle un paramètre est mis à jour pendant la formation. Plus un paramètre reçoit de mises à jour, plus les mises à jour sont petites.
Constantes
Chaîne | ACCUMULATEUR | |
flotter | INITIAL_ACCUMULATOR_DEFAULT | |
flotter | LEARNING_RATE_DEFAULT |
Constantes héritées
Chaîne | VARIABLE_V2 |
Constructeurs Publics
Méthodes publiques
Chaîne | getOptimizerName () Obtenez le nom de l'optimiseur. |
Chaîne | àChaîne () |
Méthodes héritées
Opération | applyGradients (List< GradAndVar <? extends TType >> gradsAndVars, nom de la chaîne) Applique des dégradés aux variables |
<T étend TType > List< GradAndVar <?>> | calculateGradients (perte de l'opérande <?>) Calcule les gradients en fonction d'un opérande de perte. |
Chaîne statique | createName ( Sortie <? extends TType > variable, String slotName) Crée un nom en combinant un nom de variable et un nom d'emplacement |
chaîne abstraite | getOptimizerName () Obtenez le nom de l'optimiseur. |
<T étend TType > Facultatif< Variable <T>> | |
Opérations finales | obtenirTF () Obtient l'instance Ops de l'Optimizer |
Opération | |
Opération | minimiser (perte de l'opérande <?>, nom de la chaîne) Minimise la perte en mettant à jour les variables |
booléen | est égal à (Objet arg0) |
Classe finale<?> | obtenirClasse () |
int | Code de hachage () |
vide final | notifier () |
vide final | notifierTous () |
Chaîne | àChaîne () |
vide final | attendre (long arg0, int arg1) |
vide final | attendez (long arg0) |
vide final | attendez () |
Constantes
chaîne finale statique publique ACCUMULATEUR
public statique final float INITIAL_ACCUMULATOR_DEFAULT
public statique final float LEARNING_RATE_DEFAULT
Constructeurs Publics
public AdaGrad ( Graphique )
Crée un optimiseur AdaGrad
Paramètres
graphique | le graphique TensorFlow |
---|
public AdaGrad ( Graphique , taux d'apprentissage flottant)
Crée un optimiseur AdaGrad
Paramètres
graphique | le graphique TensorFlow |
---|---|
taux d'apprentissage | le taux d'apprentissage |
public AdaGrad ( Graphique , float learningRate, float initialAccumulatorValue)
Crée un optimiseur AdaGrad
Paramètres
graphique | le graphique TensorFlow |
---|---|
taux d'apprentissage | le taux d'apprentissage |
valeur initiale de l'accumulateur | La valeur de départ des accumulateurs doit être non négative. |
Jetés
Exception d'argument illégal | si initialAccumulatorValue est négatif |
---|
public AdaGrad ( Graphique , nom de la chaîne, taux d'apprentissage flottant)
Crée un optimiseur AdaGrad
Paramètres
graphique | le graphique TensorFlow |
---|---|
nom | le nom de cet optimiseur (par défaut "Adagrad") |
taux d'apprentissage | le taux d'apprentissage |
public AdaGrad ( Graphique , nom de la chaîne, float learningRate, float initialAccumulatorValue)
Crée un optimiseur AdaGrad
Paramètres
graphique | le graphique TensorFlow |
---|---|
nom | le nom de cet optimiseur (par défaut "Adagrad") |
taux d'apprentissage | le taux d'apprentissage |
valeur initiale de l'accumulateur | La valeur de départ des accumulateurs doit être non négative. |
Jetés
Exception d'argument illégal | si initialAccumulatorValue est négatif |
---|
Méthodes publiques
chaîne publique getOptimizerName ()
Obtenez le nom de l'optimiseur.
Retour
- Le nom de l'optimiseur.