Se usó la API de Cloud Translation para traducir esta página.
Switch to English

Módulo: tf.data.experimental

TensorFlow 1 versión

API Experimental para la construcción de tuberías de entrada.

Este módulo contiene experimentales Dataset de fuentes y transformaciones que pueden ser utilizados en conjunción con el tf.data.Dataset API. Tenga en cuenta que la tf.data.experimental API no está sujeto a las mismas garantías de compatibilidad hacia atrás como tf.data , pero nos proporcionará asesoramiento desaprobación antes de la eliminación de la funcionalidad existente.

Ver Importación de datos para una visión general.

módulos

service módulo: API experimental por utilizar el servicio tf.data.

clases

class AutoShardPolicy : Representa el tipo de auto-sharding permitimos.

class CheckpointInputPipelineHook : Puntos de control del estado de tuberías de entrada de cada N pasos o segundos.

class CsvDataset : un conjunto de datos que comprende líneas de uno o más archivos CSV.

class DistributeOptions : opciones representa para el procesamiento de datos distribuidos.

class MapVectorizationOptions opciones representa para la optimización MapVectorization:.

class OptimizationOptions : opciones de conjunto de datos representa para optimizaciones.

class Optional : Representa un valor que pueden o no estar presente.

class RandomDataset : Un Dataset de los valores pseudoaleatorios.

class Reducer : Un reductor se utiliza para reducir un conjunto de elementos.

class SqlDataset : Un Dataset que consta de los resultados de una consulta SQL.

class StatsAggregator : Un recurso de estado que las estadísticas de agregados de uno o varios iteradores.

class StatsOptions opciones representa para la recogida de conjunto de datos utilizando las estadísticas: StatsAggregator .

class TFRecordWriter : Escribe un conjunto de datos a un archivo TFRecord.

class ThreadingOptions opciones representa para el roscado conjunto de datos:.

funciones

Counter(...) : Crea un Dataset que cuenta de start en pasos de tamaño de step .

assert_cardinality(...) : Reafirma la cardinalidad del conjunto de datos de entrada.

bucket_by_sequence_length(...) : Una transformación que los elementos de cucharones en un Dataset por longitud.

bytes_produced_stats(...) : registra el número de bytes producidos por cada elemento del conjunto de datos de entrada.

cardinality(...) : Devuelve la cardinalidad del dataset , si se conoce.

choose_from_datasets(...) : Crea un conjunto de datos que forma determinista elige los elementos de datasets .

copy_to_device(...) : Una transformación que las copias de conjuntos de datos de elementos a lo dado target_device .

dense_to_ragged_batch(...) : Una transformación que los lotes harapientos elementos en tf.RaggedTensor s.

dense_to_sparse_batch(...) : Una transformación que los lotes harapientos elementos en tf.sparse.SparseTensor s.

enumerate_dataset(...) : Una transformación que enumera los elementos de un conjunto de datos. (obsoleto)

from_variant(...) : Construcciones de un conjunto de datos de la variante y la estructura dada.

get_next_as_optional(...) : Devuelve un tf.experimental.Optional con el siguiente elemento del iterador. (obsoleto)

get_single_element(...) : Devuelve el único elemento en el dataset como una estructura anidada de los tensores.

get_structure(...) : Devuelve la firma de tipo de elementos del conjunto de datos de entrada / iterador.

group_by_reducer(...) : Una transformación que agrupa los elementos y lleva a cabo una reducción.

group_by_window(...) : Una transformación que agrupa las ventanas de los elementos de clave y los reduce.

ignore_errors(...) : crea un Dataset de otro Dataset y silenciosamente ignora cualquier error.

latency_stats(...) : Registra la latencia de la producción de cada elemento del conjunto de datos de entrada.

load(...) : Carga un conjunto de datos previamente guardado.

make_batched_features_dataset(...) : Devuelve un Dataset de diccionarios de características de Example Protos.

make_csv_dataset(...) : Lee archivos CSV en un conjunto de datos.

make_saveable_from_iterator(...) : Devuelve una SaveableObject para salvar / restaurar iterador estado usando Saver. (obsoleto)

map_and_batch(...) : aplicación con fusible de map y batch . (obsoleto)

parallel_interleave(...) : Una versión paralela de la Dataset.interleave() transformación. (obsoleto)

parse_example_dataset(...) : transformación A que analiza Example Protos en un dict de los tensores.

prefetch_to_device(...) : transformación de un conjunto de datos que prefetches valores a la dada device .

rejection_resample(...) : Una transformación que vuelve a muestrear un conjunto de datos para lograr una distribución de destino.

sample_from_datasets(...) : Elementos de muestras al azar de los conjuntos de datos en datasets .

save(...) : Guarda el contenido del conjunto de datos dado.

scan(...) : Una transformación que escanea una función a través de un conjunto de datos de entrada.

shuffle_and_repeat(...) : Shuffles y repite un conjunto de datos, reorganización con cada repetición. (obsoleto)

snapshot(...) : API de persistir la salida del conjunto de datos de entrada.

take_while(...) : Una transformación que se detiene la iteración conjunto de datos basado en un predicate .

to_variant(...) : Devuelve una variante que representa el conjunto de datos dado.

unbatch(...) : Fracturas elementos de un conjunto de datos en múltiples elementos en la dimensión del lote. (obsoleto)

unique(...) : Crea un Dataset de otro Dataset , descartando los duplicados.

Otros miembros

  • AUTOTUNE = -1
  • INFINITE_CARDINALITY = -1
  • UNKNOWN_CARDINALITY = -2