Se usó la API de Cloud Translation para traducir esta página.
Switch to English

Módulo: tf.compat.v1.train

TensorFlow 1 versión

Apoyo a la formación de modelos.

Ver la Formación guía.

módulos

experimental módulo: API pública para el espacio de nombres tf.train.experimental.

queue_runner módulo: API pública para el espacio de nombres tf.train.queue_runner.

clases

class AdadeltaOptimizer : Optimizador que implementa el algoritmo de Adadelta.

class AdagradDAOptimizer : algoritmo de promedio Adagrad dual para modelos lineales dispersos.

class AdagradOptimizer : Optimizador que implementa el algoritmo de Adagrad.

class AdamOptimizer : Optimizador que implementa el algoritmo de Adán.

class BytesList : Un ProtocolMessage

class Checkpoint : Grupos rastreable objetos, guardar y restaurar ellos.

class CheckpointManager : Gestiona múltiples puestos de control por mantener cierta y eliminar los que no sean necesarios.

class CheckpointOptions : opciones para la construcción de un puesto de control.

class CheckpointSaverHook : Guarda puntos de control de cada N pasos o segundos.

class CheckpointSaverListener : Interfaz para los oyentes que tomar medidas antes o después de puesto de control en Guardar.

class ChiefSessionCreator : Crea un tf.compat.v1.Session para un jefe.

class ClusterDef : Un ProtocolMessage

class ClusterSpec : Representa un clúster como un conjunto de "tareas", organizados en "puestos de trabajo".

class Coordinator : Un coordinador de hilos.

class Example : A ProtocolMessage

class ExponentialMovingAverage : Mantiene medias móviles de las variables mediante el empleo de un decaimiento exponencial.

class Feature : Un ProtocolMessage

class FeatureList : Un ProtocolMessage

class FeatureLists : Un ProtocolMessage

class Features : A ProtocolMessage

class FeedFnHook : Se ejecuta feed_fn y se pone el feed_dict en consecuencia.

class FinalOpsHook : Un gancho que evalúa Tensors al final de una sesión.

class FloatList : Un ProtocolMessage

class FtrlOptimizer : Optimizador que implementa el algoritmo de FTRL.

class GlobalStepWaiterHook : Retrasa la ejecución hasta que alcances globales paso wait_until_step .

class GradientDescentOptimizer : Optimizador que implementa el algoritmo de descenso de gradiente.

class Int64List : Un ProtocolMessage

class JobDef : Un ProtocolMessage

class LoggingTensorHook : Imprime los tensores administradas cada n pasos locales, cada N segundos, o al final.

class LooperThread : Un hilo que se ejecuta código repetidamente, opcionalmente en un temporizador.

class MomentumOptimizer : Optimizador que implementa el algoritmo de Momentum.

class MonitoredSession : Sesión-como objeto que las manijas de inicialización, la recuperación y ganchos.

class NanLossDuringTrainingError : Error de tiempo de ejecución no especificado.

class NanTensorHook : Monitores del tensor de la pérdida y se detiene la formación si la pérdida es NaN.

class Optimizer : Clase base para los optimizadores.

class ProfilerHook : Captura CPU / GPU información de perfiles cada N pasos o segundo.

class ProximalAdagradOptimizer : Optimizador que implementa el algoritmo proximal Adagrad.

class ProximalGradientDescentOptimizer : Optimizer que implementa el algoritmo de descenso de gradiente proximal.

class QueueRunner : Mantiene una lista de operaciones enqueue para una cola, cada uno que pueda desarrollarse en un hilo.

class RMSPropOptimizer : Optimizer que implementa el algoritmo de RMSProp (Tielemans et al.

class Saver : Guarda y variables de las restauraciones.

class SaverDef : Un ProtocolMessage

class Scaffold : Estructura para crear o recopilar piezas comúnmente necesarias para entrenar un modelo.

class SecondOrStepTimer : Temporizador que los desencadenantes como máximo una vez cada N segundos o una vez cada N pasos.

class SequenceExample : Un ProtocolMessage

class Server : Un servidor TensorFlow en proceso, para su uso en la formación distribuida.

class ServerDef : Un ProtocolMessage

class SessionCreator : Fábrica A para tf.Session.

class SessionManager : Formación de ayuda que las restauraciones de punto de control y crea sesión.

class SessionRunArgs : Representa argumentos que se añadirán a un Session.run() llamada.

class SessionRunContext : Proporciona información sobre el session.run() está realizando la llamada.

class SessionRunHook : gancho para extender las llamadas a MonitoredSession.run ().

class SessionRunValues : Contiene los resultados de Session.run() .

class SingularMonitoredSession : Sesión-como objeto que las manijas de inicialización, restauración y ganchos.

class StepCounterHook : Gancho que cuenta los pasos por segundo.

class StopAtStepHook : Gancho que las solicitudes se detienen en una etapa determinada.

class SummarySaverHook : Guarda resúmenes cada N pasos.

class Supervisor : Un ayudante de entrenamiento que los puestos de control modelos y calcula los resúmenes.

class SyncReplicasOptimizer : Clase para sincronizar, gradientes de áridos y los pasa al optimizador.

class VocabInfo : información de vocabulario para el calentamiento inicial.

class WorkerSessionCreator : Crea un tf.compat.v1.Session para un trabajador.

funciones

MonitoredTrainingSession(...) : Crea un MonitoredSession para la formación.

NewCheckpointReader(...) : Una función que devuelve un CheckPointReader.

add_queue_runner(...) : añade un QueueRunner a una colección en el gráfico. (obsoleto)

assert_global_step(...) : Afirma global_step_tensor es un int escalar Variable o Tensor .

basic_train_loop(...) : bucle básico para entrenar un modelo.

batch(...) : Crea lotes de tensores en tensors . (obsoleto)

batch_join(...) : Ejecuta una lista de los tensores para llenar una cola para crear lotes de ejemplos. (obsoleto)

checkpoint_exists(...) : Comprueba si existe un puesto de control V1 o V2 con el prefijo especificado. (obsoleto)

checkpoints_iterator(...) : Continuamente producir nuevos archivos de control a medida que aparecen.

cosine_decay(...) : Se aplica la descomposición del coseno a la tasa de aprendizaje.

cosine_decay_restarts(...) : Se aplica la descomposición del coseno con reinicia a la tasa de aprendizaje.

create_global_step(...)