Questa pagina è stata tradotta dall'API Cloud Translation.
Switch to English

tensorflow :: ops :: SparseApplyAdagrad

#include <training_ops.h>

Aggiorna le voci pertinenti in "* var" e "* accum" secondo lo schema adagrad.

Sommario

Questo è per le righe per cui abbiamo grad, aggiorniamo var e accum come segue: $$accum += grad * grad$$ $$var -= lr * grad * (1 / sqrt(accum))$$

Argomenti:

  • scope: un oggetto Scope
  • var: dovrebbe provenire da una variabile ().
  • accum: dovrebbe provenire da una variabile ().
  • lr: tasso di apprendimento. Deve essere uno scalare.
  • grad: Il gradiente.
  • indici: un vettore di indici nella prima dimensione di var e accum.

Attributi opzionali (vedi Attrs ):

  • use_locking: se True , l'aggiornamento dei tensori var e accum sarà protetto da un lock; in caso contrario, il comportamento è indefinito, ma potrebbe presentare meno contese.

Ritorna:

Costruttori e distruttori

SparseApplyAdagrad (const :: tensorflow::Scope & scope, :: tensorflow::Input var, :: tensorflow::Input accum, :: tensorflow::Input lr, :: tensorflow::Input grad, :: tensorflow::Input indices)
SparseApplyAdagrad (const :: tensorflow::Scope & scope, :: tensorflow::Input var, :: tensorflow::Input accum, :: tensorflow::Input lr, :: tensorflow::Input grad, :: tensorflow::Input indices, const SparseApplyAdagrad::Attrs & attrs)

Attributi pubblici

operation
out

Funzioni pubbliche

node () const
::tensorflow::Node *
operator::tensorflow::Input () const
operator::tensorflow::Output () const

Funzioni statiche pubbliche

UpdateSlots (bool x)
UseLocking (bool x)

Structs

tensorflow :: ops :: SparseApplyAdagrad :: Attrs

Setter di attributi facoltativi per SparseApplyAdagrad .

Attributi pubblici

operazione

Operation operation

su

::tensorflow::Output out

Funzioni pubbliche

SparseApplyAdagrad

 SparseApplyAdagrad(
  const ::tensorflow::Scope & scope,
  ::tensorflow::Input var,
  ::tensorflow::Input accum,
  ::tensorflow::Input lr,
  ::tensorflow::Input grad,
  ::tensorflow::Input indices
)

SparseApplyAdagrad

 SparseApplyAdagrad(
  const ::tensorflow::Scope & scope,
  ::tensorflow::Input var,
  ::tensorflow::Input accum,
  ::tensorflow::Input lr,
  ::tensorflow::Input grad,
  ::tensorflow::Input indices,
  const SparseApplyAdagrad::Attrs & attrs
)

nodo

::tensorflow::Node * node() const 

operatore :: :: tensorflow ingresso

 operator::tensorflow::Input() const 

operatore :: :: tensorflow uscita

 operator::tensorflow::Output() const 

Funzioni statiche pubbliche

UpdateSlots

Attrs UpdateSlots(
  bool x
)

UseLocking

Attrs UseLocking(
  bool x
)