Cette page a été traduite par l'API Cloud Translation.
Switch to English

tensorflow :: ops :: SparseApplyProximalGradientDescent

#include <training_ops.h>

mise à jour Sparse « * var » comme algorithme FOBOS avec un taux d'apprentissage fixe.

Résumé

C'est pour les lignes que nous avons pour GRAD, nous mettons à jour var comme suit:

$$ prox_v = var - alpha * grad $$
$$ var = signe (prox_v) / (1 + alpha * L2) * max {| prox_v | * -alpha l1,0} $$

Arguments:

  • portée: A Portée objet
  • var: Devrait être d'une variable ().
  • alpha: Facteur d'échelle. Doit être un scalaire.
  • l1: régularisation L1. Doit être un scalaire.
  • L2: régularisation L2. Doit être un scalaire.
  • grad: Le gradient.
  • indices: Un vecteur d'indices dans la première dimension de var et accum.

Les attributs facultatifs (voir Attrs ):

  • use_locking: Si vrai, la soustraction sera protégée par une serrure; sinon le comportement est indéfini, mais peut présenter moins affirmation.

Retour:

  • Output : Identique à « var ».

Constructeurs et Destructeurs

SparseApplyProximalGradientDescent (const :: tensorflow::Scope & scope, :: tensorflow::Input var, :: tensorflow::Input alpha, :: tensorflow::Input l1, :: tensorflow::Input l2, :: tensorflow::Input grad, :: tensorflow::Input indices)
SparseApplyProximalGradientDescent (const :: tensorflow::Scope & scope, :: tensorflow::Input var, :: tensorflow::Input alpha, :: tensorflow::Input l1, :: tensorflow::Input l2, :: tensorflow::Input grad, :: tensorflow::Input indices, const SparseApplyProximalGradientDescent::Attrs & attrs)

attributs publics

operation
out

Les fonctions publiques

node () const
::tensorflow::Node *
operator::tensorflow::Input () const
operator::tensorflow::Output () const

fonctions statiques publiques

UseLocking (bool x)

struct

tensorflow :: :: ops SparseApplyProximalGradientDescent :: ATTRS

Setters d'attributs en option pour SparseApplyProximalGradientDescent .

attributs publics

opération

 Operation operation

en dehors

:: tensorflow::Output out

Les fonctions publiques

SparseApplyProximalGradientDescent

 SparseApplyProximalGradientDescent(
  const :: tensorflow::Scope & scope,
  :: tensorflow::Input var,
  :: tensorflow::Input alpha,
  :: tensorflow::Input l1,
  :: tensorflow::Input l2,
  :: tensorflow::Input grad,
  :: tensorflow::Input indices
)

SparseApplyProximalGradientDescent

 SparseApplyProximalGradientDescent(
  const :: tensorflow::Scope & scope,
  :: tensorflow::Input var,
  :: tensorflow::Input alpha,
  :: tensorflow::Input l1,
  :: tensorflow::Input l2,
  :: tensorflow::Input grad,
  :: tensorflow::Input indices,
  const SparseApplyProximalGradientDescent::Attrs & attrs
)

nœud

::tensorflow::Node * node() const 

opérateur :: tensorflow :: entrée

 operator::tensorflow::Input() const 

opérateur :: tensorflow :: sortie

 operator::tensorflow::Output() const 

fonctions statiques publiques

UseLocking

 Attrs UseLocking(
  bool x
)