Se usó la API de Cloud Translation para traducir esta página.
Switch to English

tf.compat.v1.train.RMSPropOptimizer

Ver código fuente en GitHub

Optimizer que implementa el algoritmo de RMSProp (Tielemans et al.

Hereda de: Optimizer

2012).

referencias:

Coursera diapositiva 29: Hinton, 2012 ( pdf )

learning_rate Un tensor o un valor de punto flotante. La tasa de aprendizaje.
decay Factor de descuento para la historia / gradiente viene
momentum Un tensor de escalar.
epsilon Valor pequeño para evitar cero denominador.
use_locking Si las cerraduras de uso Reales para operación de actualización.
centered Si es verdad, los gradientes se normalizaron por la varianza estimada del gradiente; Si es falso, por el segundo momento descentrada. Ajuste de ésta opción puede ayudar con el entrenamiento, pero es un poco más costoso en términos de computación y memoria. El valor predeterminado es falso.
name Opcional prefijo de nombre para las operaciones creado al aplicar gradientes. Por defecto es "RMSProp".

Métodos

apply_gradients

Ver fuente

Aplicar gradientes a las variables.

Esta es la segunda parte de minimize() . Devuelve una Operation que se aplica gradientes.

args
grads_and_vars Lista de (gradiente, variables) pares como devuelto por compute_gradients() .
global_step Opcional Variable a la subasta por uno después de las variables han sido actualizados.
name nombre opcional para la operación devuelto. Por defecto al nombre pasa al Optimizer constructor.

Devoluciones
Una Operation que aplica los gradientes especificados. Si global_step no había ninguno, esa operación también incrementa global_step .

aumentos
TypeError Si grads_and_vars está mal formado.
ValueError Si ninguna de las variables tiene gradientes.
RuntimeError Si debe usar _distributed_apply() en su lugar.

compute_gradients

Ver fuente

Calcular los gradientes de loss para las variables en var_list .

Esta es la primera parte de minimize() . Se devuelve una lista de pares (gradiente, variables) donde "gradiente" es el gradiente de "variable". Tenga en cuenta que "gradiente" puede ser un Tensor , un IndexedSlices , o None si no hay un gradiente de la variable dada.

args
loss Un tensor que contiene el valor para minimizar o una toma exigible no hay argumentos que devuelve el valor para reducir al mínimo. Cuando está habilitada la ejecución ansiosos que debe ser un exigible.
var_list Lista opcional o tupla de tf.Variable para actualizar para minimizar loss . El valor predeterminado es la lista de variables recogidas en el gráfico en la clave GraphKeys.TRAINABLE_VARIABLES .
gate_gradients Cómo puerta el cálculo de los gradientes. Puede ser GATE_NONE , GATE_OP o GATE_GRAPH .
aggregation_method Especifica el método usado para combinar términos de gradiente. Los valores válidos están definidos en la clase AggregationMethod .
colocate_gradients_with_ops Si es verdad, tratar implantación común de gradientes con el correspondiente op.
grad_loss Opcional. A Tensor que sostiene el gradiente calculado para loss .

Devoluciones
Una lista de (gradiente, variables) pares. Variable está siempre presente, pero gradiente puede ser None .

aumentos
TypeError Si var_list contiene nada más que Variable objetos.
ValueError Si algunos argumentos no son válidos.
RuntimeError Si se llama con la ejecución ansiosos habilitado y loss no es exigible.

Compatibilidad ansiosos

Cuando está habilitada la ejecución ansiosos, gate_gradients , aggregation_method y colocate_gradients_with_ops se ignoran.

get_name

Ver fuente

get_slot

Ver fuente

Devolver una llamada ranura name creado para var por el optimizador.

Algunos Optimizer subclases utilizan variables adicionales. Por ejemplo Momentum y Adagrad variables de uso a las actualizaciones se acumulan. Este método permite el acceso a estas Variable objetos si por alguna razón que los necesite.

Use get_slot_names() para obtener la lista de los nombres de las ranuras creadas por el Optimizer .

args
var Una variable pasa a minimize() o apply_gradients() .
name Una cuerda.

Devoluciones
La Variable de la ranura si se creó, None otra cosa.

get_slot_names

Ver fuente

Devolverá una lista de los nombres de ranuras creadas por el Optimizer .

Ver get_slot() .

Devoluciones
Una lista de cadenas.

minimize

Ver fuente

Añadir operaciones para minimizar loss de actualización var_list .

Este método simplemente combina llamadas compute_gradients() y apply_gradients() . Si desea procesar el gradiente antes de aplicar los llamamos compute_gradients() y apply_gradients() de forma explícita en lugar de utilizar esta función.

args
loss A Tensor contiene el valor para minimizar.
global_step Opcional Variable a la subasta por uno después de las variables han sido actualizados.
var_list Lista opcional o tupla de Variable objetos para actualizar para minimizar loss . El valor predeterminado es la lista de variables recogidas en el gráfico en la clave GraphKeys.TRAINABLE_VARIABLES .
gate_gradients Cómo puerta el cálculo de los gradientes. Puede ser GATE_NONE , GATE_OP o GATE_GRAPH .
aggregation_method Especifica el método usado para combinar términos de gradiente. Los valores válidos están definidos en la clase AggregationMethod .
colocate_gradients_with_ops Si es verdad, tratar implantación común de gradientes con el correspondiente op.
name nombre opcional para la operación devuelto.
grad_loss Opcional. A Tensor que sostiene el gradiente calculado para loss .

Devoluciones
Una operación que actualiza las variables en var_list . Si global_step no era None , esa operación también incrementa global_step .

aumentos
ValueError Si algunas de las variables no son Variable objetos.

Compatibilidad ansiosos

Cuando está habilitada la ejecución ansiosos, loss debe ser una función de Python que no tiene argumentos y calcula el valor que se reduce al mínimo. Minimización (y el cálculo del gradiente) se realiza con respecto a los elementos de