imagenet2012_real

Cet ensemble de données contient des images de validation ILSVRC-2012 (IMAGEnet) avec un nouveau augmentée ensemble de papier étiquettes de la « Avons - nous terminé avec IMAGEnet » « réévaluées » (ReaL), voir https://arxiv.org/abs/2006.07159 Ces les étiquettes sont collectées à l'aide du protocole amélioré, ce qui entraîne des annotations multi-étiquettes et plus précises.

Note importante: environ 3500 exemples contiennent pas d' étiquette, ceux - ci devraient être exclues du calcul de la moyenne lors du calcul de la précision . Une façon possible de le faire est d'utiliser le code NumPy suivant :

is_correct = [pred in real_labels[i] for i, pred in enumerate(predictions) if real_labels[i]]
real_accuracy = np.mean(is_correct)
Diviser Exemples
'validation' 50 000
  • Caractéristiques:
FeaturesDict({
    'file_name': Text(shape=(), dtype=tf.string),
    'image': Image(shape=(None, None, 3), dtype=tf.uint8),
    'original_label': ClassLabel(shape=(), dtype=tf.int64, num_classes=1000),
    'real_label': Sequence(ClassLabel(shape=(), dtype=tf.int64, num_classes=1000)),
})

Visualisation

  • citation:
@article{beyer2020imagenet,
  title={Are we done with ImageNet?},
  author={Lucas Beyer and Olivier J. Henaff and Alexander Kolesnikov and Xiaohua Zhai and Aaron van den Oord},
  journal={arXiv preprint arXiv:2002.05709},
  year={2020}
}
@article{ILSVRC15,
  Author={Olga Russakovsky and Jia Deng and Hao Su and Jonathan Krause and Sanjeev Satheesh and Sean Ma and Zhiheng Huang and Andrej Karpathy and Aditya Khosla and Michael Bernstein and Alexander C. Berg and Li Fei-Fei},
  Title={ {ImageNet Large Scale Visual Recognition Challenge} },
  Year={2015},
  journal={International Journal of Computer Vision (IJCV)},
  doi={10.1007/s11263-015-0816-y},
  volume={115},
  number={3},
  pages={211-252}
}