Cette page a été traduite par l'API Cloud Translation.
Switch to English

:: tensorflow ops :: SparseApplyProximalAdagrad

#include <training_ops.h>

les entrées de mise à jour dans clairsemés « * var » et « * accum » selon l'algorithme FOBOS.

Résumé

C'est pour les lignes que nous avons pour GRAD, nous mettons à jour var et accum comme suit:

$$ accum + = grad * grad $$
$$ = prox_v var $$
$$ prox_v - = lr * grad * (1 / sqrt (accum)) $$
$$ var = signe (prox_v) / (1 + lr * l2) * max {| prox_v | -LR * l1,0} $$

Arguments:

  • portée: A Portée objet
  • var: Devrait être d'une variable ().
  • accum: Devrait être d'une variable ().
  • lr: Taux d'apprentissage. Doit être un scalaire.
  • l1: régularisation L1. Doit être un scalaire.
  • L2: régularisation L2. Doit être un scalaire.
  • grad: Le gradient.
  • indices: Un vecteur d'indices dans la première dimension de var et accum.

Les attributs facultatifs (voir Attrs ):

  • use_locking: Si vrai, la mise à jour des tenseurs var et ACCUM seront protégées par une serrure; sinon le comportement est non défini, mais peut présenter moins affirmation.

Retour:

  • Output : Identique à « var ».

Constructeurs et Destructeurs

SparseApplyProximalAdagrad (const :: tensorflow::Scope & scope, :: tensorflow::Input var, :: tensorflow::Input accum, :: tensorflow::Input lr, :: tensorflow::Input l1, :: tensorflow::Input l2, :: tensorflow::Input grad, :: tensorflow::Input indices)
SparseApplyProximalAdagrad (const :: tensorflow::Scope & scope, :: tensorflow::Input var, :: tensorflow::Input accum, :: tensorflow::Input lr, :: tensorflow::Input l1, :: tensorflow::Input l2, :: tensorflow::Input grad, :: tensorflow::Input indices, const SparseApplyProximalAdagrad::Attrs & attrs)

attributs publics

operation
out

Les fonctions publiques

node () const
::tensorflow::Node *
operator::tensorflow::Input () const
operator::tensorflow::Output () const

fonctions statiques publiques

UseLocking (bool x)

struct

tensorflow :: :: ops SparseApplyProximalAdagrad :: ATTRS

Setters d'attributs en option pour SparseApplyProximalAdagrad .

attributs publics

opération

 Operation operation

en dehors

:: tensorflow::Output out

Les fonctions publiques

SparseApplyProximalAdagrad

 SparseApplyProximalAdagrad(
  const :: tensorflow::Scope & scope,
  :: tensorflow::Input var,
  :: tensorflow::Input accum,
  :: tensorflow::Input lr,
  :: tensorflow::Input l1,
  :: tensorflow::Input l2,
  :: tensorflow::Input grad,
  :: tensorflow::Input indices
)

SparseApplyProximalAdagrad

 SparseApplyProximalAdagrad(
  const :: tensorflow::Scope & scope,
  :: tensorflow::Input var,
  :: tensorflow::Input accum,
  :: tensorflow::Input lr,
  :: tensorflow::Input l1,
  :: tensorflow::Input l2,
  :: tensorflow::Input grad,
  :: tensorflow::Input indices,
  const SparseApplyProximalAdagrad::Attrs & attrs
)

nœud

::tensorflow::Node * node() const 

opérateur :: tensorflow :: entrée

 operator::tensorflow::Input() const 

opérateur :: tensorflow :: sortie

 operator::tensorflow::Output() const 

fonctions statiques publiques

UseLocking

 Attrs UseLocking(
  bool x
)