Cette page a été traduite par l'API Cloud Translation.
Switch to English

Module: tf.data.experimental

plus par

Tensorflow 1 Version

API expérimentale pour la construction de pipelines d'entrée.

Ce module contient expérimentales Dataset sources et des transformations qui peuvent être utilisés conjointement avec l' tf.data.Dataset API. Notez que la tf.data.experimental API ne sont pas soumis aux mêmes garanties de compatibilité ascendante comme tf.data , mais nous fournira des conseils deprecation avant la suppression des fonctionnalités existantes.

Voir Importation de données pour un aperçu.

Modules

service Module: API expérimentale pour l' utilisation du service tf.data.

Des classes

class AutoShardPolicy : Représente le type d'auto-sharding nous activons.

class CheckpointInputPipelineHook : pipeline d'entrée Checkpoints __gVirt_NP_NN_NNPS<__ état toutes les étapes __gVirt_NP_NNS_NNPS<__ N ou secondes.

class CsvDataset : un ensemble de données comprenant des lignes d'un ou plusieurs fichiers CSV.

class DistributeOptions : options pour le traitement Représentent de données distribuées.

class MapVectorizationOptions : Représente les options pour l'optimisation de MapVectorization.

class OptimizationOptions : Représente les options pour l' ensemble de données optimisations.

class Optional en class Optional : Représente une valeur qui peut ou non être présent.

class RandomDataset : A Dataset des valeurs pseudo - aléatoires.

class Reducer de class Reducer : réducteur de A est utilisé pour réduire un ensemble d'éléments.

class SqlDataset : Un Dataset composé des résultats d'une requête SQL.

class StatsAggregator : Une ressource stateful que les statistiques des agrégats d'un ou plusieurs itérateurs.

class StatsOptions : Représente les options de collecte dataset statistiques à l' aide StatsAggregator .

class TFRecordWriter : Ecrit un ensemble de données dans un fichier TFRecord.

class ThreadingOptions : Représentent options pour jeu de données de filetage.

Les fonctions

Counter(...) : Crée un Dataset qui compte de start dans les étapes de la taille step .

assert_cardinality(...) : active la cardinalité de l'ensemble de données d'entrée.

bucket_by_sequence_length(...) : Une transformation que des seaux éléments dans un Dataset de Dataset de longueur.

bytes_produced_stats(...) : enregistre le nombre d'octets produits par chaque élément de l'ensemble de données d'entrée.

cardinality(...) : Renvoie la cardinalité de dataset de dataset , si elle est connue.

choose_from_datasets(...) : crée un ensemble de données qui choisit déterministe des éléments de datasets de datasets .

copy_to_device(...) : Une transformation qui copie l' ensemble de données des éléments à la donnée target_device .

dense_to_ragged_batch(...) : Une transformation que les lots en lambeaux éléments dans tf.RaggedTensor s.

dense_to_sparse_batch(...) : Une transformation que les lots en lambeaux éléments dans tf.sparse.SparseTensor s.

enumerate_dataset(...) : transformation A qui énumère les éléments d'un ensemble de données. (Obsolète)

from_variant(...) : construit un ensemble de données à partir de la variante donnée et la structure.

get_next_as_optional(...) : Renvoie une tf.experimental.Optional avec l'élément suivant de l'itérateur. (Obsolète)

get_single_element(...) : Retourne l'élément unique dataset de dataset en tant que structure imbriquée de tenseurs.

get_structure(...) : Renvoie la signature de type pour les éléments de l'ensemble de données d'entrée / itérateur.

group_by_reducer(...) : Une transformation qui regroupe des éléments et effectue une réduction.

group_by_window(...) : transformation de A que les fenêtres de groupes d'éléments de clé et les réduit.

ignore_errors(...) : Crée un Dataset d'un autre Dataset et ne tient pas compte des erreurs en silence.

latency_stats(...) : Enregistre la latence de la production de chaque élément de l'ensemble de données d'entrée.

load(...) : Charge un ensemble de données précédemment enregistré.

make_batched_features_dataset(...) : Renvoie un Dataset de dictionnaires de fonction de Example Protos.

make_csv_dataset(...) : Reads fichiers CSV dans un ensemble de données.

make_saveable_from_iterator(...) : Retourne une SaveableObject pour sauvegarde / restauration iterator état en utilisant Saver. (Obsolète)

map_and_batch(...) : la mise en œuvre de Fused map et batch . (Obsolète)

parallel_interleave(...) : Une version parallèle de la Dataset.interleave() transformation. (Obsolète)

parse_example_dataset(...) : transformation A qui analyse Example protos dans un dict de tenseurs.

prefetch_to_device(...) : transformation d'un ensemble de données que les valeurs prélecture au donné device .

rejection_resample(...) : transformation de A qui rééchantillonne un ensemble de données pour obtenir une distribution cible.

sample_from_datasets(...) : éléments des échantillons au hasard à partir des jeux de données dans des datasets de datasets .

save(...) : Enregistre le contenu de l'ensemble de données.

scan(...) : transformation A qui scanne une fonction pour un ensemble de données d'entrée.

shuffle_and_repeat(...) : Shuffles et répète un dataset, remaniements à chaque répétition. (Obsolète)

snapshot(...) : API de persister la sortie de l'ensemble de données d'entrée.

take_while(...) : Une transformation qui arrête l' itération jeu de données à base d'un predicate .

to_variant(...) : Retourne une variante représentant l'ensemble de données.

unbatch(...) : les éléments de criques de l'ensemble de données en plusieurs éléments sur la dimension du lot. (Obsolète)

unique(...) , Dataset Dataset unique(...) : Crée un Dataset d'un autre Dataset , en rejetant les doublons.

Autres membres

  • AUTOTUNE = -1
  • INFINITE_CARDINALITY = -1
  • UNKNOWN_CARDINALITY = -2