¡Reserva! Google I / O regresa del 18 al 20 de mayo Regístrese ahora
Se usó la API de Cloud Translation para traducir esta página.
Switch to English

Fracturas y rebanado

Todo DatasetBuilder es exponer diversos subconjuntos de datos definidos como escisiones (por ejemplo: train , test ). Al construir una instancia detf.data.Dataset usando tfds.load() o tfds.DatasetBuilder.as_dataset() , se puede especificar qué división (s) recuperar. También es posible recuperar rebanadas de split (s) así como combinaciones de ellos.

API de rebanado

Las instrucciones de tfds.load se especifican en tfds.load o tfds.DatasetBuilder.as_dataset .

Las instrucciones se pueden proporcionar como cadenas o como ReadInstruction s. Las cadenas son más compactas y legibles para casos simples, mientras que ReadInstruction proporciona más opciones y podría ser más fácil de usar con parámetros de corte variables.

Ejemplos

Ejemplos que utilizan la API de cadenas:

# The full `train` split.
train_ds = tfds.load('mnist', split='train')

# The full `train` split and the full `test` split as two distinct datasets.
train_ds, test_ds = tfds.load('mnist', split=['train', 'test'])

# The full `train` and `test` splits, interleaved together.
train_test_ds = tfds.load('mnist', split='train+test')

# From record 10 (included) to record 20 (excluded) of `train` split.
train_10_20_ds = tfds.load('mnist', split='train[10:20]')

# The first 10% of train split.
train_10pct_ds = tfds.load('mnist', split='train[:10%]')

# The first 10% of train + the last 80% of train.
train_10_80pct_ds = tfds.load('mnist', split='train[:10%]+train[-80%:]')

# 10-fold cross-validation (see also next section on rounding behavior):
# The validation datasets are each going to be 10%:
# [0%:10%], [10%:20%], ..., [90%:100%].
# And the training datasets are each going to be the complementary 90%:
# [10%:100%] (for a corresponding validation set of [0%:10%]),
# [0%:10%] + [20%:100%] (for a validation set of [10%:20%]), ...,
# [0%:90%] (for a validation set of [90%:100%]).
vals_ds = tfds.load('mnist', split=[
    f'train[{k}%:{k+10}%]' for k in range(0, 100, 10)
])
trains_ds = tfds.load('mnist', split=[
    f'train[:{k}%]+train[{k+10}%:]' for k in range(0, 100, 10)
])

Ejemplos que utilizan la API ReadInstruction (equivalente a la anterior):

# The full `train` split.
train_ds = tfds.load('mnist', split=tfds.core.ReadInstruction('train'))

# The full `train` split and the full `test` split as two distinct datasets.
train_ds, test_ds = tfds.load('mnist', split=[
    tfds.core.ReadInstruction('train'),
    tfds.core.ReadInstruction('test'),
])

# The full `train` and `test` splits, interleaved together.
ri = tfds.core.ReadInstruction('train') + tfds.core.ReadInstruction('test')
train_test_ds = tfds.load('mnist', split=ri)

# From record 10 (included) to record 20 (excluded) of `train` split.
train_10_20_ds = tfds.load('mnist', split=tfds.core.ReadInstruction(
    'train', from_=10, to=20, unit='abs'))

# The first 10% of train split.
train_10_20_ds = tfds.load('mnist', split=tfds.core.ReadInstruction(
    'train', to=10, unit='%'))

# The first 10% of train + the last 80% of train.
ri = (tfds.core.ReadInstruction('train', to=10, unit='%') +
      tfds.core.ReadInstruction('train', from_=-80, unit='%'))
train_10_80pct_ds = tfds.load('mnist', split=ri)

# 10-fold cross-validation (see also next section on rounding behavior):
# The validation datasets are each going to be 10%:
# [0%:10%], [10%:20%], ..., [90%:100%].
# And the training datasets are each going to be the complementary 90%:
# [10%:100%] (for a corresponding validation set of [0%:10%]),
# [0%:10%] + [20%:100%] (for a validation set of [10%:20%]), ...,
# [0%:90%] (for a validation set of [90%:100%]).
vals_ds = tfds.load('mnist', [
    tfds.core.ReadInstruction('train', from_=k, to=k+10, unit='%')
    for k in range(0, 100, 10)])
trains_ds = tfds.load('mnist', [
    (tfds.core.ReadInstruction('train', to=k, unit='%') +
     tfds.core.ReadInstruction('train', from_=k+10, unit='%'))
    for k in range(0, 100, 10)])

tfds.even_splits

tfds.even_splits genera una lista de sub-divisiones no superpuestas del mismo tamaño.

assert tfds.even_splits('train', n=3) == [
    'train[0%:33%]', 'train[33%:67%]', 'train[67%:100%]',
]

Porcentaje de corte y redondeo

Si se solicita un segmento de una división utilizando la unidad de porcentaje ( % ) y los límites de segmento solicitados no se dividen uniformemente por 100 , el comportamiento predeterminado es redondear los límites al número entero closest ( closest ). Esto significa que algunos sectores pueden contener más ejemplos que otros. Por ejemplo:

# Assuming "train" split contains 101 records.
# 100 records, from 0 to 100.
tfds.load("mnist", split="test[:99%]")
# 2 records, from 49 to 51.
tfds.load("mnist", split="test[49%:50%]")

Alternativamente, el usuario puede utilizar el redondeo pct1_dropremainder , por lo que los límites de porcentaje especificados se tratan como múltiplos del 1%. Esta opción debe usarse cuando se necesita consistencia (por ejemplo: len(5%) == 5 * len(1%) ). Esto significa que los últimos ejemplos se pueden truncar si info.split[split_name].num_examples % 100 != 0 .

Ejemplo:

# Records 0 (included) to 99 (excluded).
split = tfds.core.ReadInstruction(
    'test',
    to=99,
    rounding='pct1_dropremainder',
    unit = '%',
)
tfds.load("mnist", split=split)

Reproducibilidad

La API de subdivisión garantiza que cualquier segmento dividido (o ReadInstruction ) siempre producirá el mismo conjunto de registros en un conjunto de datos determinado, siempre que la versión principal del conjunto de datos sea constante.

Por ejemplo, tfds.load("mnist:3.0.0", split="train[10:20]") y tfds.load("mnist:3.2.0", split="train[10:20]") siempre contendrá los mismos elementos, independientemente de la plataforma, arquitectura, etc., aunque algunos de los registros pueden tener valores diferentes (por ejemplo: codificación imgage, etiqueta, ...).