Pomoc chronić Wielkiej Rafy Koralowej z TensorFlow na Kaggle Dołącz Wyzwanie

flic

Z artykułu: automatycznie zebraliśmy zestaw danych 5003 obrazów z popularnych hollywoodzkich filmów. Obrazy uzyskano, uruchamiając najnowocześniejszy detektor osób na co dziesiątej klatce 30 filmów. Osoby wykryte z dużym zaufaniem (około 20 tys. kandydatów) zostały następnie wysłane na rynek crowdsourcingowy Amazon Mechanical Turk w celu uzyskania podstawowego oznakowania prawdy. Każdy obraz został opatrzony adnotacjami pięciu Turków po 0,01 USD każdy, aby oznaczyć 10 stawów górnej części ciała. Dla każdego obrazu przyjęto medianę z pięciu etykiet, aby zapewnić odporność na adnotacje odstające. Wreszcie, obrazy zostały przez nas ręcznie odrzucone, jeśli dana osoba była niedrożna lub poważnie niefrontalna. Do testów przeznaczamy 20% (1016 obrazów) danych.

Podział Przykłady
'test' 1,016
'train' 3987
  • Cechy:
FeaturesDict({
    'currframe': tf.float64,
    'image': Image(shape=(480, 720, 3), dtype=tf.uint8),
    'moviename': Text(shape=(), dtype=tf.string),
    'poselet_hit_idx': Sequence(tf.uint16),
    'torsobox': BBoxFeature(shape=(4,), dtype=tf.float32),
    'xcoords': Sequence(tf.float64),
    'ycoords': Sequence(tf.float64),
})
@inproceedings{modec13,
    title={MODEC: Multimodal Decomposable Models for Human Pose Estimation},
    author={Sapp, Benjamin and Taskar, Ben},
    booktitle={In Proc. CVPR},
    year={2013},
  }

flic/mały (konfiguracja domyślna)

  • Opis config: Używa 5003 przykłady stosowanych w CVPR13 MODEC papieru.

  • Wielkość pliku: 286.35 MiB

  • Rysunek ( tfds.show_examples ):

Wyobrażanie sobie

flic/pełny

  • Opis config: Używa 20928 przykładach rozszerzeniem Flic składający się z trudniejszych przykładach.

  • Wielkość pliku: 1.10 GiB

  • Rysunek ( tfds.show_examples ):

Wyobrażanie sobie