Se usó la API de Cloud Translation para traducir esta página.
Switch to English

tf.keras.optimizers.Adagrad

Versión de TensorFlow 1 Ver fuente en GitHub

Optimizador que implementa el algoritmo Adagrad.

Hereda de: Optimizer

Usado en los cuadernos

Usado en los tutoriales

Adagrad es un optimizador con tasas de aprendizaje específicas de parámetros, que se adaptan en relación con la frecuencia con la que se actualiza un parámetro durante el entrenamiento. Cuantas más actualizaciones reciba un parámetro, menores serán las actualizaciones.

learning_rate Un Tensor , un valor de punto flotante o una programación que es un tf.keras.optimizers.schedules.LearningRateSchedule . La tasa de aprendizaje.
initial_accumulator_value Un valor de coma flotante. El valor inicial de los acumuladores no debe ser negativo.
epsilon Un pequeño valor de coma flotante para evitar el denominador cero.
name Prefijo de nombre opcional para las operaciones creadas al aplicar degradados. El valor predeterminado es "Adagrad" .
**kwargs Argumentos de palabras clave. Se permite ser uno de "clipnorm" o "clipvalue" . "clipnorm" (flotador) "clipnorm" gradientes por norma; "clipvalue" (flotante) "clipvalue" gradientes por valor.

Referencia:

name Una cadena no vacía. El nombre que se utilizará para los acumuladores creados para el optimizador.
**kwargs argumentos de palabras clave. Permitido ser { clipnorm , clipvalue , lr , decay }. clipnorm es recortar gradientes por norma; clipvalue son gradientes de recorte por valor, el decay se incluye para compatibilidad con versiones anteriores para permitir el decaimiento inverso en el tiempo de la tasa de aprendizaje. lr se incluye para compatibilidad con versiones anteriores, se recomienda usar learning_rate lugar.

ValueError Si el nombre está mal formado.

iterations Variable. El número de pasos de entrenamiento que ha ejecutado este Optimizador.
weights Devuelve variables de este Optimizador en función del pedido creado.

Métodos

add_slot

Ver fuente

Agregue una nueva variable de ranura para var .

add_weight

Ver fuente

apply_gradients

Ver fuente

Aplicar degradados a las variables.

Esta es la segunda parte de minimize() . Devuelve una Operation que aplica gradientes.

El método suma gradientes de todas las réplicas en presencia de tf.distribute.Strategy de forma predeterminada. Puede agregar gradientes usted mismo pasando experimental_aggregate_gradients=False .

Ejemplo:

grads = tape.gradient(loss, vars)
grads = tf.distribute.get_replica_context().all_reduce('sum', grads)
# Processing aggregated gradients.
optimizer.apply_gradients(zip(grads, vars),
    experimental_aggregate_gradients=False)

Args
grads_and_vars Lista de pares (gradiente, variable).
name Nombre opcional para la operación devuelta. Predeterminado al nombre pasado al constructor Optimizer .
experimental_aggregate_gradients Ya sea para sumar gradientes de diferentes réplicas en presencia de tf.distribute.Strategy . Si es False, es responsabilidad del usuario agregar los degradados. Predeterminado a Verdadero.

Devoluciones
Una Operation que aplica los gradientes especificados. Las iterations se incrementarán automáticamente en 1.

Eleva
TypeError Si grads_and_vars tiene un formato incorrecto.
ValueError Si ninguna de las variables tiene gradientes.

from_config

Ver fuente

Crea un optimizador a partir de su configuración.

Este método es el inverso de get_config , capaz de instanciar el mismo optimizador del diccionario de configuración.

Argumentos
config Un diccionario de Python, normalmente el resultado de get_config.
custom_objects Un diccionario de Python que asigna nombres a objetos de Python adicionales que se utilizan para crear este optimizador, como una función utilizada para un hiperparámetro.

Devoluciones
Una instancia de optimizador.

get_config

Ver fuente

Devuelve la configuración del optimizador.

Una configuración de optimizador es un diccionario de Python (serializable) que contiene la configuración de un optimizador. El mismo optimizador se puede reinstalar más tarde (sin ningún estado guardado) desde esta configuración.

Devoluciones
Diccionario de Python.

get_gradients

Ver fuente

Devuelve gradientes de loss con respecto a los params .

Argumentos
loss Tensor de pérdida.
params Lista de variables.

Devoluciones
Lista de tensores de gradiente.

Eleva
ValueError En caso de que no se pueda calcular algún gradiente (por ejemplo, si no se implementa la función de gradiente).

get_slot

Ver fuente

get_slot_names

Ver fuente

Una lista de nombres para las ranuras de este optimizador.

get_updates

Ver fuente