Se usó la API de Cloud Translation para traducir esta página.
Switch to English

Módulo: tf.keras.optimizers

TensorFlow 1 versión

Incorporado en las clases del optimizador.

módulos

schedules módulo: API pública para tf.keras.optimizers.schedules espacio de nombres.

clases

class Adadelta : Optimizador que implementa el algoritmo de Adadelta.

class Adagrad : Optimizador que implementa el algoritmo de Adagrad.

class Adam : Optimizador que implementa el algoritmo de Adán.

class Adamax : Optimizador que implementa el algoritmo de Adamax.

class Ftrl : Optimizador que implementa el algoritmo de FTRL.

class Nadam : Optimizador que implementa el algoritmo de Nadam.

class Optimizer : Clase base para los optimizadores Keras.

class RMSprop : Optimizador que implementa el algoritmo de RMSprop.

class SGD : descenso de gradiente (con movimiento) optimizador.

funciones

deserialize(...) : Inverso de la serialize función.

get(...) : Recupera una instancia Keras Optimizer.

serialize(...)