Pomoc chronić Wielkiej Rafy Koralowej z TensorFlow na Kaggle Dołącz Wyzwanie

Gref

  • opis:

Zbiór danych Google RefExp to zbiór opisów tekstowych obiektów na obrazach, który opiera się na publicznie dostępnym zbiorze danych MS-COCO. Podczas gdy podpisy obrazów w MS-COCO dotyczą całego obrazu, ten zestaw danych koncentruje się na opisach tekstowych, które pozwalają jednoznacznie zidentyfikować pojedynczy obiekt lub region na obrazie. Zobacz więcej szczegółów w tym artykule: Generowanie i rozumienie jednoznacznych opisów obiektów.

  • Strona domowa: https://github.com/mjhucla/Google_Refexp_toolbox

  • Kod źródłowy: tfds.vision_language.gref.Gref

  • wersje:

    • 1.0.0 (domyślnie): Pierwsza wersja.
  • Wielkość pliku: Unknown size

  • Zbiór danych rozmiar: 4.60 GiB

  • Ręczne pobieranie instrukcje: Ten zestaw danych wymaga, aby ręcznie pobrać dane źródłowe do download_config.manual_dir (domyślnie ~/tensorflow_datasets/downloads/manual/ )
    Postępuj zgodnie z instrukcjami wyświetlanymi na https://github.com/mjhucla/Google_Refexp_toolbox do pobrania i wstępnego przetwarzania danych w formacie wyrównany z Coco. Katalog zawiera 2 pliki i jeden folder:

  • google_refexp_train_201511_coco_aligned_catg.json

  • google_refexp_val_201511_coco_aligned_catg.json

  • coco_pociąg2014/

Folder coco_train2014 zawiera wszystkie obrazy szkoleniowe COCO 2014.

Podział Przykłady
'train' 24 698
'validation' 4650
  • Cechy:
FeaturesDict({
    'image': Image(shape=(None, None, 3), dtype=tf.uint8),
    'image/id': tf.int64,
    'objects': Sequence({
        'area': tf.int64,
        'bbox': BBoxFeature(shape=(4,), dtype=tf.float32),
        'id': tf.int64,
        'label': tf.int64,
        'label_name': ClassLabel(shape=(), dtype=tf.int64, num_classes=80),
        'refexp': Sequence({
            'raw': Text(shape=(), dtype=tf.string),
            'referent': Text(shape=(), dtype=tf.string),
            'refexp_id': tf.int64,
            'tokens': Sequence(Text(shape=(), dtype=tf.string)),
        }),
    }),
})

Wyobrażanie sobie

  • cytat:
@inproceedings{mao2016generation,
  title={Generation and Comprehension of Unambiguous Object Descriptions},
  author={Mao, Junhua and Huang, Jonathan and Toshev, Alexander and Camburu, Oana and Yuille, Alan and Murphy, Kevin},
  booktitle={CVPR},
  year={2016}
}