Se usó la API de Cloud Translation para traducir esta página.
Switch to English

tf.keras.optimizers.Nadam

Versión de TensorFlow 1 Ver fuente en GitHub

Optimizador que implementa el algoritmo NAdam.

Hereda de: Optimizer

Al igual que Adam es esencialmente RMSprop con impulso, Nadam es Adam con impulso de Nesterov.

learning_rate Un tensor o un valor de punto flotante. La tasa de aprendizaje.
beta_1 Un valor flotante o un tensor flotante constante. La tasa de caída exponencial para las estimaciones del primer momento.
beta_2 Un valor flotante o un tensor flotante constante. La tasa de caída exponencial para la norma infinita ponderada exponencialmente.
epsilon Una pequeña constante para la estabilidad numérica.
name Nombre opcional para las operaciones creadas al aplicar degradados. El valor predeterminado es "Nadam" .
**kwargs Argumentos de palabras clave. Se permite ser uno de "clipnorm" o "clipvalue" . "clipnorm" (flotador) "clipnorm" gradientes por norma; "clipvalue" (flotante) "clipvalue" gradientes por valor.

Referencia:

name Una cadena no vacía. El nombre que se utilizará para los acumuladores creados para el optimizador.
**kwargs argumentos de palabras clave. Permitido ser { clipnorm , clipvalue , lr , decay }. clipnorm es recortar gradientes por norma; clipvalue son gradientes de recorte por valor, el decay se incluye para compatibilidad con versiones anteriores para permitir el decaimiento inverso en el tiempo de la tasa de aprendizaje. lr se incluye para compatibilidad con versiones anteriores, se recomienda usar learning_rate lugar.

ValueError Si el nombre está mal formado.

iterations Variable. El número de pasos de entrenamiento que ha ejecutado este Optimizador.
weights Devuelve variables de este Optimizador en función del pedido creado.

Métodos

add_slot

Ver fuente

Agregue una nueva variable de ranura para var .

add_weight

Ver fuente

apply_gradients

Ver fuente

Aplicar degradados a las variables.

Esta es la segunda parte de minimize() . Devuelve una Operation que aplica gradientes.

El método suma gradientes de todas las réplicas en presencia de tf.distribute.Strategy de forma predeterminada. Puede agregar gradientes usted mismo pasando experimental_aggregate_gradients=False .

Ejemplo:

grads = tape.gradient(loss, vars)
grads = tf.distribute.get_replica_context().all_reduce('sum', grads)
# Processing aggregated gradients.
optimizer.apply_gradients(zip(grads, vars),
    experimental_aggregate_gradients=False)

Args
grads_and_vars Lista de pares (gradiente, variable).
name Nombre opcional para la operación devuelta. Predeterminado al nombre pasado al constructor Optimizer .
experimental_aggregate_gradients Ya sea para sumar gradientes de diferentes réplicas en presencia de tf.distribute.Strategy . Si es False, es responsabilidad del usuario agregar los degradados. Predeterminado a Verdadero.

Devoluciones
Una Operation que aplica los gradientes especificados. Las iterations se incrementarán automáticamente en 1.

Eleva
TypeError Si grads_and_vars tiene un formato incorrecto.
ValueError Si ninguna de las variables tiene gradientes.

from_config

Ver fuente

Crea un optimizador a partir de su configuración.

Este método es el inverso de get_config , capaz de instanciar el mismo optimizador del diccionario de configuración.

Argumentos
config Un diccionario de Python, normalmente el resultado de get_config.
custom_objects Un diccionario de Python que asigna nombres a objetos de Python adicionales que se utilizan para crear este optimizador, como una función utilizada para un hiperparámetro.

Devoluciones
Una instancia de optimizador.

get_config

Ver fuente

Devuelve la configuración del optimizador.

Una configuración de optimizador es un diccionario de Python (serializable) que contiene la configuración de un optimizador. El mismo optimizador se puede reinstalar más tarde (sin ningún estado guardado) desde esta configuración.

Devoluciones
Diccionario de Python.

get_gradients

Ver fuente

Devuelve gradientes de loss con respecto a los params .

Argumentos
loss Tensor de pérdida.
params Lista de variables.

Devoluciones
Lista de tensores de gradiente.

Eleva
ValueError En caso de que no se pueda calcular algún gradiente (por ejemplo, si no se implementa la función de gradiente).

get_slot

Ver fuente

get_slot_names

Ver fuente

Una lista de nombres para las ranuras de este optimizador.

get_updates

Ver fuente

get_weights

Ver fuente

Devuelve los pesos actuales del optimizador.

Los pesos de un optimizador son su estado (es decir, variables). Esta función devuelve los valores de peso asociados con este optimizador como una lista de matrices Numpy. El primer valor es siempre el recuento de iteraciones del optimizador, seguido de las variables de estado del optimizador en el orden en que se crearon. La lista devuelta puede, a su vez, utilizarse para cargar el estado en optimizadores con parámetros similares.

Por ejemplo, el optimizador RMSprop para este modelo simple devuelve una lista de tres valores: el recuento de iteraciones, se