Junte-se ao TensorFlow no Google I/O, de 11 a 12 de maio Registre-se agora

Personalização da decodificação de recursos

O tfds.decode API permite que você substituir a decodificação recurso padrão. O principal caso de uso é pular a decodificação da imagem para obter um melhor desempenho.

Exemplos de uso

Ignorando a decodificação da imagem

Para manter o controle total sobre o pipeline de decodificação, ou para aplicar um filtro antes que as imagens sejam decodificadas (para melhor desempenho), você pode pular totalmente a decodificação da imagem. Isso funciona tanto com tfds.features.Image e tfds.features.Video .

ds = tfds.load('imagenet2012', split='train', decoders={
    'image': tfds.decode.SkipDecoding(),
})

for example in ds.take(1):
  assert example['image'].dtype == tf.string  # Images are not decoded

Filtre / embaralhe o conjunto de dados antes que as imagens sejam decodificadas

De forma semelhante ao exemplo anterior, você pode usar tfds.decode.SkipDecoding() para inserir adicional tf.data personalização gasoduto antes de decodificar a imagem. Dessa forma, as imagens filtradas não serão decodificadas e você pode usar um buffer de embaralhamento maior.

# Load the base dataset without decoding
ds, ds_info = tfds.load(
    'imagenet2012',
    split='train',
    decoders={
        'image': tfds.decode.SkipDecoding(),  # Image won't be decoded here
    },
    as_supervised=True,
    with_info=True,
)
# Apply filter and shuffle
ds = ds.filter(lambda image, label: label != 10)
ds = ds.shuffle(10000)
# Then decode with ds_info.features['image']
ds = ds.map(
    lambda image, label: ds_info.features['image'].decode_example(image), label)

Cortar e decodificar ao mesmo tempo

Para substituir o padrão tf.io.decode_image operação, você pode criar um novo tfds.decode.Decoder objeto usando o tfds.decode.make_decoder() decorador.

@tfds.decode.make_decoder()
def decode_example(serialized_image, feature):
  crop_y, crop_x, crop_height, crop_width = 10, 10, 64, 64
  return tf.image.decode_and_crop_jpeg(
      serialized_image,
      [crop_y, crop_x, crop_height, crop_width],
      channels=feature.feature.shape[-1],
  )

ds = tfds.load('imagenet2012', split='train', decoders={
    # With video, decoders are applied to individual frames
    'image': decode_example(),
})

O que é equivalente a:

def decode_example(serialized_image, feature):
  crop_y, crop_x, crop_height, crop_width = 10, 10, 64, 64
  return tf.image.decode_and_crop_jpeg(
      serialized_image,
      [crop_y, crop_x, crop_height, crop_width],
      channels=feature.shape[-1],
  )

ds, ds_info = tfds.load(
    'imagenet2012',
    split='train',
    with_info=True,
    decoders={
        'image': tfds.decode.SkipDecoding(),  # Skip frame decoding
    },
)
ds = ds.map(functools.partial(decode_example, feature=ds_info.features['image']))

Personalização da decodificação de vídeo

Vídeo são Sequence(Image()) . Ao aplicar decodificadores personalizados, eles serão aplicados a quadros individuais. Isso significa que os decodificadores de imagens são automaticamente compatíveis com vídeo.

@tfds.decode.make_decoder()
def decode_example(serialized_image, feature):
  crop_y, crop_x, crop_height, crop_width = 10, 10, 64, 64
  return tf.image.decode_and_crop_jpeg(
      serialized_image,
      [crop_y, crop_x, crop_height, crop_width],
      channels=feature.feature.shape[-1],
  )

ds = tfds.load('ucf101', split='train', decoders={
    # With video, decoders are applied to individual frames
    'video': decode_example(),
})

O que é equivalente a:

def decode_frame(serialized_image):
  """Decodes a single frame."""
  crop_y, crop_x, crop_height, crop_width = 10, 10, 64, 64
  return tf.image.decode_and_crop_jpeg(
      serialized_image,
      [crop_y, crop_x, crop_height, crop_width],
      channels=ds_info.features['video'].shape[-1],
  )


def decode_video(example):
  """Decodes all individual frames of the video."""
  video = example['video']
  video = tf.map_fn(
      decode_frame,
      video,
      dtype=ds_info.features['video'].dtype,
      parallel_iterations=10,
  )
  example['video'] = video
  return example


ds, ds_info = tfds.load('ucf101', split='train', with_info=True, decoders={
    'video': tfds.decode.SkipDecoding(),  # Skip frame decoding
})
ds = ds.map(decode_video)  # Decode the video

Apenas decodifique um subconjunto dos recursos.

Também é possível ignorar totalmente alguns recursos, especificando apenas os recursos de que você precisa. Todos os outros recursos serão ignorados / pulados.

builder = tfds.builder('my_dataset')
builder.as_dataset(split='train', decoders=tfds.decode.PartialDecoding({
    'image': True,
    'metadata': {'num_objects', 'scene_name'},
    'objects': {'label'},
})

TFDS vai seleccionar o subconjunto de builder.info.features correspondentes a dada tfds.decode.PartialDecoding estrutura.

No código acima, o destaque são extraídos de forma implícita para combinar builder.info.features . Também é possível definir explicitamente os recursos. O código acima é equivalente a:

builder = tfds.builder('my_dataset')
builder.as_dataset(split='train', decoders=tfds.decode.PartialDecoding({
    'image': tfds.features.Image(),
    'metadata': {
        'num_objects': tf.int64,
        'scene_name': tfds.features.Text(),
    },
    'objects': tfds.features.Sequence({
        'label': tfds.features.ClassLabel(names=[]),
    }),
})

Os metadados originais (nomes de rótulos, formato de imagem, ...) são reutilizados automaticamente, portanto, não é necessário fornecê-los.

tfds.decode.SkipDecoding pode ser passado para tfds.decode.PartialDecoding , através do PartialDecoding(..., decoders={}) kwargs.