Partecipa al simposio Women in ML il 7 dicembre Registrati ora

Personalizzazione della decodifica delle funzioni

Mantieni tutto organizzato con le raccolte Salva e classifica i contenuti in base alle tue preferenze.

Il tfds.decode API consente di ignorare la decodifica funzione predefinita. Il caso d'uso principale è saltare la decodifica dell'immagine per prestazioni migliori.

Esempi di utilizzo

Salta la decodifica dell'immagine

Per mantenere il pieno controllo sulla pipeline di decodifica o per applicare un filtro prima che le immagini vengano decodificate (per prestazioni migliori), puoi saltare completamente la decodifica dell'immagine. Questo funziona sia con tfds.features.Image e tfds.features.Video .

ds = tfds.load('imagenet2012', split='train', decoders={
    'image': tfds.decode.SkipDecoding(),
})

for example in ds.take(1):
  assert example['image'].dtype == tf.string  # Images are not decoded

Filtra/riordina il set di dati prima che le immagini vengano decodificate

Analogamente al precedente esempio, è possibile utilizzare tfds.decode.SkipDecoding() per inserire ulteriore tf.data personalizzazione gasdotto prima della decodifica l'immagine. In questo modo le immagini filtrate non verranno decodificate e potrai utilizzare un buffer di shuffle più grande.

# Load the base dataset without decoding
ds, ds_info = tfds.load(
    'imagenet2012',
    split='train',
    decoders={
        'image': tfds.decode.SkipDecoding(),  # Image won't be decoded here
    },
    as_supervised=True,
    with_info=True,
)
# Apply filter and shuffle
ds = ds.filter(lambda image, label: label != 10)
ds = ds.shuffle(10000)
# Then decode with ds_info.features['image']
ds = ds.map(
    lambda image, label: ds_info.features['image'].decode_example(image), label)

Ritaglio e decodifica allo stesso tempo

Per ignorare l'impostazione predefinita tf.io.decode_image operazione, è possibile creare un nuovo tfds.decode.Decoder oggetto utilizzando il tfds.decode.make_decoder() decoratore.

@tfds.decode.make_decoder()
def decode_example(serialized_image, feature):
  crop_y, crop_x, crop_height, crop_width = 10, 10, 64, 64
  return tf.image.decode_and_crop_jpeg(
      serialized_image,
      [crop_y, crop_x, crop_height, crop_width],
      channels=feature.feature.shape[-1],
  )

ds = tfds.load('imagenet2012', split='train', decoders={
    # With video, decoders are applied to individual frames
    'image': decode_example(),
})

Che equivale a:

def decode_example(serialized_image, feature):
  crop_y, crop_x, crop_height, crop_width = 10, 10, 64, 64
  return tf.image.decode_and_crop_jpeg(
      serialized_image,
      [crop_y, crop_x, crop_height, crop_width],
      channels=feature.shape[-1],
  )

ds, ds_info = tfds.load(
    'imagenet2012',
    split='train',
    with_info=True,
    decoders={
        'image': tfds.decode.SkipDecoding(),  # Skip frame decoding
    },
)
ds = ds.map(functools.partial(decode_example, feature=ds_info.features['image']))

Personalizzazione della decodifica video

Video sono Sequence(Image()) . Quando si applicano i decoder personalizzati, verranno applicati ai singoli frame. Ciò significa che i decodificatori per le immagini sono automaticamente compatibili con i video.

@tfds.decode.make_decoder()
def decode_example(serialized_image, feature):
  crop_y, crop_x, crop_height, crop_width = 10, 10, 64, 64
  return tf.image.decode_and_crop_jpeg(
      serialized_image,
      [crop_y, crop_x, crop_height, crop_width],
      channels=feature.feature.shape[-1],
  )

ds = tfds.load('ucf101', split='train', decoders={
    # With video, decoders are applied to individual frames
    'video': decode_example(),
})

Che equivale a:

def decode_frame(serialized_image):
  """Decodes a single frame."""
  crop_y, crop_x, crop_height, crop_width = 10, 10, 64, 64
  return tf.image.decode_and_crop_jpeg(
      serialized_image,
      [crop_y, crop_x, crop_height, crop_width],
      channels=ds_info.features['video'].shape[-1],
  )


def decode_video(example):
  """Decodes all individual frames of the video."""
  video = example['video']
  video = tf.map_fn(
      decode_frame,
      video,
      dtype=ds_info.features['video'].dtype,
      parallel_iterations=10,
  )
  example['video'] = video
  return example


ds, ds_info = tfds.load('ucf101', split='train', with_info=True, decoders={
    'video': tfds.decode.SkipDecoding(),  # Skip frame decoding
})
ds = ds.map(decode_video)  # Decode the video

Decodifica solo un sottoinsieme delle funzionalità.

È anche possibile saltare completamente alcune funzionalità specificando solo le funzionalità necessarie. Tutte le altre funzionalità verranno ignorate/saltate.

builder = tfds.builder('my_dataset')
builder.as_dataset(split='train', decoders=tfds.decode.PartialDecoding({
    'image': True,
    'metadata': {'num_objects', 'scene_name'},
    'objects': {'label'},
})

TFDS selezionerà il sottoinsieme di builder.info.features corrispondenti alla data tfds.decode.PartialDecoding struttura.

Nel codice di cui sopra, la vetrina vengono implicitamente estratti da abbinare builder.info.features . È anche possibile definire esplicitamente le caratteristiche. Il codice sopra è equivalente a:

builder = tfds.builder('my_dataset')
builder.as_dataset(split='train', decoders=tfds.decode.PartialDecoding({
    'image': tfds.features.Image(),
    'metadata': {
        'num_objects': tf.int64,
        'scene_name': tfds.features.Text(),
    },
    'objects': tfds.features.Sequence({
        'label': tfds.features.ClassLabel(names=[]),
    }),
})

I metadati originali (nomi delle etichette, forma dell'immagine,...) vengono riutilizzati automaticamente, quindi non è necessario fornirli.

tfds.decode.SkipDecoding può essere passato a tfds.decode.PartialDecoding , attraverso il PartialDecoding(..., decoders={}) kwargs.