Esta página foi traduzida pela API Cloud Translation.
Switch to English

Módulo: tf.data.experimental

TensorFlow 1 versão

API experimental para a construção de dutos de entrada.

Este módulo contém experimentais Dataset de fontes e transformações que podem ser usados em conjunção com o tf.data.Dataset API. Note que o tf.data.experimental API não está sujeita às mesmas garantias de compatibilidade para trás como tf.data , mas vamos fornecer conselhos depreciação antes de remover a funcionalidade existente.

Consulte Importando dados para uma visão geral.

módulos

service módulo: API experimental para usar o serviço tf.data.

Aulas

class AutoShardPolicy : Representa o tipo de auto-sharding nós permitimos.

class CheckpointInputPipelineHook : Pontos de verificação do estado gasoduto de entrada todos os passos N ou segundos.

class CsvDataset : um conjunto de dados que compreende as linhas de um ou mais arquivos CSV.

class DistributeOptions : opções representa para processamento de dados distribuídos.

class MapVectorizationOptions opções representa para a otimização MapVectorization:.

class OptimizationOptions : opções representa para conjunto de dados otimizações.

class Optional : Representa um valor que pode ou não estar presente.

class RandomDataset : Um Dataset de valores pseudo-aleatórios.

class Reducer : Um redutor é utilizado para a redução de um conjunto de elementos.

class SqlDataset : Um Dataset que consiste nos resultados de uma consulta SQL.

class StatsAggregator : Um recurso stateful que agrega estatísticas de uma ou mais iteradores.

class StatsOptions opções representa para recolher conjuntos de dados estatísticas usando: StatsAggregator .

class TFRecordWriter : Grava um conjunto de dados para um arquivo TFRecord.

class ThreadingOptions opções representa para conjunto de dados de segmentação:.

Funções

Counter(...) : Cria um Dataset que conta de start em incrementos de tamanho step .

assert_cardinality(...) : Afirma a cardinalidade do conjunto de dados de entrada.

bucket_by_sequence_length(...) : Uma transformação que elementos baldes em um Dataset de comprimento.

bytes_produced_stats(...) : grava o número de bytes produzido por cada elemento do conjunto de dados de entrada.

cardinality(...) : Retorna a cardinalidade do dataset , se for conhecido.

choose_from_datasets(...) : Cria um conjunto de dados que deterministically escolhe elementos de datasets .

copy_to_device(...) : Uma transformação que as cópias do conjunto de dados elementos para o dado target_device .

dense_to_ragged_batch(...) : Uma transformação que os lotes irregular elementos em tf.RaggedTensor s.

dense_to_sparse_batch(...) : Uma transformação que os lotes irregular elementos em tf.sparse.SparseTensor s.

enumerate_dataset(...) : Uma transformação que enumera os elementos de um conjunto de dados. (descontinuada)

from_variant(...) : Constrói um conjunto de dados a partir da variante e estrutura dada.

get_next_as_optional(...) : Retorna um tf.experimental.Optional com o próximo elemento do iterador. (descontinuada)

get_single_element(...) : Retorna o único elemento no dataset como uma estrutura aninhada de tensores.

get_structure(...) : Retorna a assinatura de tipo de elementos do conjunto de dados de entrada / iterador.

group_by_reducer(...) : Uma transformação que agrupa elementos e executa uma redução.

group_by_window(...) : Uma transformação que agrupa janelas de elementos de chave e reduz-los.

ignore_errors(...) : Cria um Dataset de um outro Dataset e silenciosamente ignora quaisquer erros.

latency_stats(...) : Grava a latência de produzir cada elemento do conjunto de dados de entrada.

load(...) : Carrega um conjunto de dados salvo anteriormente.

make_batched_features_dataset(...) : Retorna um Dataset de dicionários de recurso de Example protos.

make_csv_dataset(...) : lê arquivos CSV em um conjunto de dados.

make_saveable_from_iterator(...) : Retorna uma SaveableObject para salvar / restaurar iterador estado usando Saver. (descontinuada)

map_and_batch(...) : aplicação Fused de map e batch . (descontinuada)

parallel_interleave(...) : Uma versão paralela do Dataset.interleave() transformação. (descontinuada)

parse_example_dataset(...) : Uma transformação que analisa Example Protos para um dict dos tensores.

prefetch_to_device(...) : Uma transformação que prefetches conjunto de dados valores para o determinado device .

rejection_resample(...) : Uma transformação que resamples um conjunto de dados para conseguir uma distribuição alvo.

sample_from_datasets(...) : Elementos amostras aleatórias dos conjuntos de dados em datasets .

save(...) : Salva o conteúdo do conjunto de dados fornecido.

scan(...) : Uma transformação que varre uma função através de um conjunto de dados de entrada.

shuffle_and_repeat(...) : Baralhar e repete um conjunto de dados, remodelação com cada repetição. (descontinuada)

snapshot(...) : API de persistir a saída do conjunto de dados de entrada.

take_while(...) : Uma transformação que pára dataset iteração com base em um predicate .

to_variant(...) : Retorna uma variante que representa o conjunto de dados fornecido.

unbatch(...) : Divide elementos de um conjunto de dados em vários elementos sobre a dimensão do lote. (descontinuada)

unique(...) : Cria um Dataset de um outro Dataset , descartando duplicatas.

Outros membros

  • AUTOTUNE = -1
  • INFINITE_CARDINALITY = -1
  • UNKNOWN_CARDINALITY = -2