AdaGrad

classe publique AdaGrad

Optimiseur qui implémente l'algorithme d'Adagrad.

Adagrad est un optimiseur avec des taux d'apprentissage spécifiques aux paramètres, qui sont adaptés en fonction de la fréquence à laquelle un paramètre est mis à jour pendant la formation. Plus un paramètre reçoit de mises à jour, plus les mises à jour sont petites.

Constantes

Constantes héritées

org.tensorflow.framework.optimizers.Optimizer
Chaîne VARIABLE_V2

Constructeurs Publics

AdaGrad ( graphique graphique )
Crée un optimiseur AdaGrad
AdaGrad ( Graphique , taux d'apprentissage flottant)
Crée un optimiseur AdaGrad
AdaGrad ( Graphique , float learningRate, float initialAccumulatorValue)
Crée un optimiseur AdaGrad
AdaGrad ( Graphique , nom de la chaîne, taux d'apprentissage flottant)
Crée un optimiseur AdaGrad
AdaGrad ( Graphique , nom de la chaîne, float learningRate, float initialAccumulatorValue)
Crée un optimiseur AdaGrad

Méthodes publiques

Chaîne
getOptimizerName ()
Obtenez le nom de l'optimiseur.
Chaîne

Méthodes héritées

org.tensorflow.framework.optimizers.Optimizer
Opération
applyGradients (List< GradAndVar <? extends TType >> gradsAndVars, nom de la chaîne)
Applique des dégradés aux variables
<T étend TType > List< GradAndVar <?>>
calculateGradients (perte de l'opérande <?>)
Calcule les gradients en fonction d'un opérande de perte.
Chaîne statique
createName ( Sortie <? extends TType > variable, String slotName)
Crée un nom en combinant un nom de variable et un nom d'emplacement
chaîne abstraite
getOptimizerName ()
Obtenez le nom de l'optimiseur.
<T étend TType > Facultatif< Variable <T>>
getSlot ( Sortie <T> var, String slotName)
Obtient l'emplacement associé à la variable spécifiée et au nom de l'emplacement.
Opérations finales
obtenirTF ()
Obtient l'instance Ops de l'Optimizer
Opération
minimiser (perte de l'opérande <?>)
Minimise la perte en mettant à jour les variables
Opération
minimiser (perte de l'opérande <?>, nom de la chaîne)
Minimise la perte en mettant à jour les variables
booléen
est égal à (Objet arg0)
Classe finale<?>
obtenirClasse ()
int
Code de hachage ()
vide final
notifier ()
vide final
notifierTous ()
Chaîne
àChaîne ()
vide final
attendre (long arg0, int arg1)
vide final
attendez (long arg0)
vide final
attendez ()

Constantes

chaîne finale statique publique ACCUMULATEUR

Valeur constante : "accumulateur"

public statique final float INITIAL_ACCUMULATOR_DEFAULT

Valeur constante : 0,01

public statique final float LEARNING_RATE_DEFAULT

Valeur constante : 0,001

Constructeurs Publics

public AdaGrad ( Graphique )

Crée un optimiseur AdaGrad

Paramètres
graphique le graphique TensorFlow

public AdaGrad ( Graphique , taux d'apprentissage flottant)

Crée un optimiseur AdaGrad

Paramètres
graphique le graphique TensorFlow
taux d'apprentissage le taux d'apprentissage

public AdaGrad ( Graphique , float learningRate, float initialAccumulatorValue)

Crée un optimiseur AdaGrad

Paramètres
graphique le graphique TensorFlow
taux d'apprentissage le taux d'apprentissage
valeur initiale de l'accumulateur La valeur de départ des accumulateurs doit être non négative.
Jetés
Exception d'argument illégal si initialAccumulatorValue est négatif

public AdaGrad ( Graphique , nom de la chaîne, taux d'apprentissage flottant)

Crée un optimiseur AdaGrad

Paramètres
graphique le graphique TensorFlow
nom le nom de cet optimiseur (par défaut "Adagrad")
taux d'apprentissage le taux d'apprentissage

public AdaGrad ( Graphique , nom de la chaîne, float learningRate, float initialAccumulatorValue)

Crée un optimiseur AdaGrad

Paramètres
graphique le graphique TensorFlow
nom le nom de cet optimiseur (par défaut "Adagrad")
taux d'apprentissage le taux d'apprentissage
valeur initiale de l'accumulateur La valeur de départ des accumulateurs doit être non négative.
Jetés
Exception d'argument illégal si initialAccumulatorValue est négatif

Méthodes publiques

chaîne publique getOptimizerName ()

Obtenez le nom de l'optimiseur.

Retour
  • Le nom de l'optimiseur.

chaîne publique versString ()