- Description :
ImageNet-PI est une version réétiquetée du jeu de données standard ILSVRC2012 ImageNet, dont les étiquettes sont fournies par une collection de 16 réseaux neuronaux profonds d'architectures différentes, pré-entraînés sur le jeu de données standard ILSVRC2012. Plus précisément, les modèles pré-entraînés sont téléchargés depuis tf.keras.applications.
En plus des nouvelles étiquettes, ImageNet-PI fournit également des métadonnées sur le processus d'annotation sous la forme de niveaux de confiance des modèles sur leurs étiquettes et d'informations supplémentaires sur chaque modèle.
Pour plus d'informations, consultez : ImageNet-PI
Page d'accueil : https://github.com/google-research-datasets/imagenet_pi/
Code source :
tfds.datasets.imagenet_pi.BuilderVersions :
-
1.0.0(par défaut) : Version initiale.
-
Taille du téléchargement :
Unknown sizeTaille de l'ensemble de données :
Unknown sizeInstructions de téléchargement manuel : Ce jeu de données nécessite le téléchargement manuel des données sources dans
download_config.manual_dir(par défaut :~/tensorflow_datasets/downloads/manual/).
Le répertoire manual_dir doit contenir deux fichiers : ILSVRC2012_img_train.tar et ILSVRC2012_img_val.tar. Vous devez vous inscrire sur http://www.image-net.org/download-images pour obtenir le lien de téléchargement du jeu de données.Mise en cache automatique ( documentation ) : Inconnu
Splits :
| Diviser | Exemples |
|---|
- Structure des fonctionnalités :
FeaturesDict({
'annotator_confidences': Tensor(shape=(16,), dtype=float32),
'annotator_labels': Tensor(shape=(16,), dtype=int64),
'clean_label': ClassLabel(shape=(), dtype=int64, num_classes=1000),
'file_name': Text(shape=(), dtype=string),
'image': Image(shape=(None, None, 3), dtype=uint8),
})
- Documentation des fonctionnalités :
| Fonctionnalité | Classe | Forme | Type D | Description |
|---|---|---|---|---|
| Dictionnaire des fonctionnalités | ||||
| confiances de l'annotateur | Tenseur | (16,) | float32 | |
| étiquettes_annotateur | Tenseur | (16,) | int64 | |
| étiquette propre | Étiquette de classe | int64 | ||
| nom de fichier | Texte | chaîne | ||
| image | Image | (Aucun, Aucun, 3) | uint8 |
Clés supervisées (Voir la documentation
as_supervised) :('image', 'annotator_labels')Figure ( tfds.show_examples ): Non pris en charge.
Exemples ( tfds.as_dataframe ): Manquant.
Citation :
@inproceedings{tram,
author = {Mark Collier and
Rodolphe Jenatton and
Effrosyni Kokiopoulou and
Jesse Berent},
editor = {Kamalika Chaudhuri and
Stefanie Jegelka and
Le Song and
Csaba Szepesv{\'{a} }ri and
Gang Niu and
Sivan Sabato},
title = {Transfer and Marginalize: Explaining Away Label Noise with Privileged
Information},
booktitle = {International Conference on Machine Learning, {ICML} 2022, 17-23 July
2022, Baltimore, Maryland, {USA} },
series = {Proceedings of Machine Learning Research},
volume = {162},
pages = {4219--4237},
publisher = { {PMLR} },
year = {2022},
url = {https://proceedings.mlr.press/v162/collier22a.html},
}
@article{ILSVRC15,
Author = {Olga Russakovsky and Jia Deng and Hao Su and Jonathan Krause and Sanjeev Satheesh and Sean Ma and Zhiheng Huang and Andrej Karpathy and Aditya Khosla and Michael Bernstein and Alexander C. Berg and Li Fei-Fei},
Title = { {ImageNet Large Scale Visual Recognition Challenge} },
Year = {2015},
journal = {International Journal of Computer Vision (IJCV)},
doi = {10.1007/s11263-015-0816-y},
volume={115},
number={3},
pages={211-252}
}