Questa pagina è stata tradotta dall'API Cloud Translation.
Switch to English

tf.compat.v1.train.RMSPropOptimizer

Visualizza sorgente su GitHub

Optimizer che implementa l'algoritmo RMSProp (Tielemans et al.

Eredita da: Optimizer

2012).

Riferimenti:

Coursera slitta 29: Hinton 2012 ( pdf )

learning_rate Un Tensor o un valore in virgola mobile. Il tasso di apprendimento.
decay Fattore di sconto per la storia / a venire gradiente
momentum Un tensore scalare.
epsilon Valore basso per evitare lo zero denominatore.
use_locking Se utilizzare i blocchi vero per operazione di aggiornamento.
centered Se Vero, gradienti sono normalizzati dalla varianza stimato del gradiente; Se false, dal secondo momento uncentered. L'impostazione di questa True può aiutare con la formazione, ma è leggermente più costoso in termini di calcolo e di memoria. Il valore predefinito è False.
name prefisso del nome opzionale per le operazioni creato quando si applica gradienti. Il valore predefinito è "RMSProp".

metodi

apply_gradients

Vedi la fonte

Applicare gradienti alle variabili.

Questa è la seconda parte di minimize() . Restituisce un Operation che si applica gradienti.

args
grads_and_vars Elenco dei (gradiente, variabile) coppie restituito da compute_gradients() .
global_step Opzionale Variable a incrementano di uno dopo che le variabili sono state aggiornate.
name nome opzionale per l'operazione restituito. Predefinito al nome passato alla Optimizer costruttore.

ritorna
Operation che applica i gradienti specificati. Se global_step non era nessuno, tale operazione incrementa anche global_step .

alza
TypeError Se grads_and_vars non è valido.
ValueError Se nessuna delle variabili hanno pendenze.
RuntimeError Se è necessario utilizzare _distributed_apply() , invece.

compute_gradients

Vedi la fonte

Calcola gradienti di loss per le variabili in var_list .

Questa è la prima parte di minimize() . Restituisce una lista di coppie (gradiente, variabile) dove "gradiente" è il gradiente per "variabile". Nota che "gradiente" può essere un Tensor , un IndexedSlices , o None se non v'è alcuna pendenza per la variabile data.

args
loss Un tensore che contiene il valore per minimizzare o una presa richiamabile senza argomenti che restituisce il valore per ridurre al minimo. Quando l'esecuzione ansioso è abilitato deve essere un richiamabile.
var_list Lista o tupla di optional tf.Variable aggiornare per ridurre al minimo loss . Il valore predefinito è l'elenco delle variabili raccolte nel grafico sotto la chiave GraphKeys.TRAINABLE_VARIABLES .
gate_gradients Come cancello il calcolo delle pendenze. Può essere GATE_NONE , GATE_OP o GATE_GRAPH .
aggregation_method Specifica il metodo utilizzato per combinare i termini gradiente. I valori validi sono definiti nella classe AggregationMethod .
colocate_gradients_with_ops Se vero, provare a effettuare nello stesso pendenze con la corrispondente op.
grad_loss Opzionale. Un Tensor tiene il gradiente calcolato per loss .

ritorna
Un elenco di (gradiente, variabile) coppie. Variabile è sempre presente, ma gradiente può essere None .

alza
TypeError Se var_list contiene altro che Variable di oggetti.
ValueError Se alcuni argomenti non sono validi.
RuntimeError Se viene chiamato con l'esecuzione desiderosi abilitata e loss non è richiamabile.

Compatibilità Eager

Quando l'esecuzione desiderosi è abilitata, gate_gradients , aggregation_method e colocate_gradients_with_ops vengono ignorati.

get_name

Vedi la fonte

get_slot

Vedi la fonte

Restituisce uno slot di nome name creato per var dal Optimizer.

Alcuni Optimizer sottoclassi utilizzano variabili aggiuntive. Per esempio Momentum e Adagrad variabili di uso per gli aggiornamenti accumularsi. Questo metodo fornisce l'accesso a queste Variable oggetti se per qualche motivo avete bisogno di loro.

Utilizzare get_slot_names() per ottenere l'elenco dei nomi di slot creati dal Optimizer .

args
var Una variabile passata a minimize() o apply_gradients() .
name Una stringa.

ritorna
La Variable per lo slot se è stato creato, None altrimenti.

get_slot_names

Vedi la fonte

Restituisce una lista dei nomi di slot creati dalla Optimizer .

Vedere get_slot() .

ritorna
Una lista di stringhe.

minimize

Vedi la fonte

Aggiungere le operazioni per ridurre al minimo loss per l'aggiornamento var_list .

Questo metodo combina semplicemente chiamate compute_gradients() e apply_gradients() . Se si desidera elaborare il gradiente prima di applicarle chiamata compute_gradients() e apply_gradients() in modo esplicito invece di utilizzare questa funzione.

args
loss Un Tensor contenente il valore per ridurre.
global_step Opzionale Variable a incrementano di uno dopo che le variabili sono state aggiornate.
var_list Lista o tupla di optional Variable oggetti da aggiornare per ridurre al minimo loss . Il valore predefinito è l'elenco delle variabili raccolte nel grafico sotto la chiave GraphKeys.TRAINABLE_VARIABLES .
gate_gradients Come cancello il calcolo delle pendenze. Può essere GATE_NONE , GATE_OP o GATE_GRAPH .
aggregation_method Specifica il metodo utilizzato per combinare i termini gradiente. I valori validi sono definiti nella classe AggregationMethod .
colocate_gradients_with_ops Se vero, provare a effettuare nello stesso pendenze con la corrispondente op.
name nome opzionale per l'operazione restituito.
grad_loss Opzionale. Un Tensor tiene il gradiente calcolato per loss .

ritorna
Un'operazione che aggiorna le variabili in var_list . Se global_step non era None , tale operazione incrementa anche global_step .

alza
ValueError Se alcune delle variabili non sono Variable oggetti.

Compatibilità Eager

Quando l'esecuzione ansioso è attivata, loss dovrebbe essere una funzione Python che non accetta argomenti e calcola il valore di minimizzare. Minimizzazione (e computazione gradiente) è fatto con rispetto agli elementi di var_list se non None, altrimenti rispetto a qualsiasi variabile addestrabili create durante l'esecuzione della loss funzione. gate_gradients , aggregation_method , colocate_gradients_with_ops e grad_loss vengono ignorati quando l'esecuzione ansioso è abilitato.

variables

Vedi la fonte

Un elenco di variabili che codificare lo stato attuale delle Optimizer .

Include variabili di slot e variabili globali creati dalla ottimizzatore nel grafico predefinito corrente.

ritorna
Un elenco di variabili.

variabili di classe

  • GATE_GRAPH = 2
  • GATE_NONE = 0
  • GATE_OP = 1