Ta strona została przetłumaczona przez Cloud Translation API.
Switch to English

tfds.load

Wyświetl źródło na GitHub

Ładuje nazwany zestaw danych do tf.data.Dataset .

Używany w notebookach

Używany w przewodniku Używany w samouczkach

Jeśli split=None (wartość domyślna), zwraca wszystkie podziały dla zestawu danych. W przeciwnym razie zwraca określony podział.

load to wygodna metoda, która pobiera tfds.core.DatasetBuilder według nazwy ciągu, opcjonalnie wywołuje DatasetBuilder.download_and_prepare (jeśli download=True ), a następnie wywołuje DatasetBuilder.as_dataset . Jest to mniej więcej równoważne z:

 builder = tfds.builder(name, data_dir=data_dir, **builder_kwargs)
if download:
  builder.download_and_prepare(**download_and_prepare_kwargs)
ds = builder.as_dataset(
    split=split, as_supervised=as_supervised, **as_dataset_kwargs)
if with_info:
  return ds, builder.info
return ds
 

Jeśli chcesz mieć tablice NumPy zamiast tf.data.Dataset s lub tf.Tensor s, możesz przekazać wartość tfds.as_numpy do tfds.as_numpy .

Wywołujące muszą przekazywać argumenty jako argumenty słów kluczowych.

name str , zarejestrowana nazwa obiektu DatasetBuilder (wersja nazwy klasy w przypadku węża). Może to być "dataset_name" "dataset_name/config_name" danych "dataset_name" lub "dataset_name/config_name" dla zestawów danych z BuilderConfig . Dla wygody ten ciąg może zawierać argumenty słów kluczowych oddzielone przecinkami dla konstruktora. Na przykład "foo_bar/a=True,b=3" użyłby zestawu danych FooBar przekazującego argumenty słów kluczowych a=True i b=3 (dla konstruktorów z konfiguracjami byłoby to "foo_bar/zoo/a=True,b=3" używać "zoo" config i przejść do argumentów kluczowych wypełniaczy a=True i b=3 ).
split Który podział danych do załadowania (np. 'train' , 'test' ['train', 'test'] , 'train[80%:]' ,…). Zobacz nasz przewodnik po podzielonym API . Jeśli None , zwróci wszystkie podziały w Dict[Split, tf.data.Dataset]
data_dir str , katalog do odczytu / zapisu danych. Domyślnie wartość zmiennej środowiskowej TFDS_DATA_DIR, jeśli jest ustawiona, w przeciwnym razie powraca do „~ / tensorflow_datasets”.
batch_size int , jeśli jest ustawiona, dodaj wymiar partii do przykładów. Zauważ, że funkcje o zmiennej długości będą wypełnione zerami. Jeśli batch_size=-1 , zwróci pełny zestaw danych jako tf.Tensor s.
shuffle_files bool , czy wymieszać pliki wejściowe. Domyślnie False .
download bool (opcjonalnie), czy wywołać tfds.core.DatasetBuilder.download_and_prepare przed wywołaniem tf.DatasetBuilder.as_dataset . Jeśli False , dane powinny znajdować się w data_dir . Jeśli True a dane są już w data_dir , download_and_prepare nie data_dir .
as_supervised bool , jeśli True , zwrócony tf.data.Dataset będzie miał strukturę tf.data.Dataset się z 2 krotek (input, label) zgodnie z builder.info.supervised_keys . Jeśli False , wartość domyślna, zwrócony tf.data.Dataset będzie zawierał słownik ze wszystkimi funkcjami.
decoders Zagnieżdżone dyktowanie obiektów Decoder które umożliwiają dostosowanie dekodowania. Struktura powinna pasować do struktury funkcji, ale obecne muszą być tylko niestandardowe klucze funkcji. Więcej informacji znajdziesz w przewodniku .
read_config tfds.ReadConfig , Dodatkowe opcje konfiguracji potoku wejściowego (np. seed, liczba odczytów równoległych, ...).
with_info bool , jeśli True, tfds.load zwróci krotkę (tf.data.Dataset, tfds.core.DatasetInfo) zawierającą informacje powiązane z konstruktorem.
builder_kwargs dict (opcjonalnie), argumenty słów kluczowych, które mają być przekazane do konstruktora tfds.core.DatasetBuilder . data_dir zostanie przekazana domyślnie.
download_and_prepare_kwargs dict (opcjonalne) argumenty słów kluczowych przekazane do tfds.core.DatasetBuilder.download_and_prepare if download=True . Pozwól kontrolować, gdzie pobrać i wyodrębnić dane z pamięci podręcznej. Jeśli nie jest ustawiona, cache_dir i manual_dir zostaną automatycznie wywnioskowane z data_dir.
as_dataset_kwargs dict (opcjonalnie), argumenty słów kluczowych przekazane do tfds.core.DatasetBuilder.as_dataset .
try_gcs bool , jeśli True, tfds.load sprawdzi, czy zestaw danych istnieje w publicznym zasobniku GCS przed utworzeniem go lokalnie.

ds tf.data.Dataset , żądany zestaw danych lub jeśli split ma wartość None, dict<key: tfds.Split, value: tfds.data.Dataset> . Jeśli batch_size=-1 , będą to pełne zestawy danych, takie jak tf.Tensor s.
ds_info tfds.core.DatasetInfo , jeśli with_info ma wartość True, to tfds.load zwróci krotkę (ds, ds_info) zawierającą informacje o (ds, ds_info) danych (wersja, funkcje, podziały, num_examples, ...). Zauważ, że obiekt ds_info dokumentuje cały zbiór danych, niezależnie od żądanego split . Informacje dotyczące podziału są dostępne w ds_info.splits .