hellaswag

  • Descriptif :

Le jeu de données HellaSwag est une référence pour Commonsense NLI. Il comprend un contexte et des fins qui complètent le contexte.

  • Documentation complémentaire : Explorer sur Papers With Code

  • Page d' accueil : https://rowanzellers.com/hellaswag/

  • Code source : tfds.text.Hellaswag

  • Versions :

    • 0.0.1 : Aucune note de version.
    • 1.0.0 : Ajout de divisions distinctes pour les ensembles de validation/test dans le domaine et hors domaine.
    • 1.1.0 (par défaut) : une autre dimension fractionnée pour la source (wikihow vs activitynet)
  • Taille du téléchargement : 68.18 MiB

  • Taille du jeu de données : 107.45 MiB

  • Mise en cache automatique ( documentation ): Oui

  • Fractionnements :

Diviser Exemples
'test' 10 003
'test_ind_activitynet' 1 870
'test_ind_wikihow' 3 132
'test_ood_activitynet' 1 651
'test_ood_wikihow' 3 350
'train' 39 905
'train_activitynet' 14 740
'train_wikihow' 25 165
'validation' 10 042
'validation_ind_activitynet' 1 809
'validation_ind_wikihow' 3 192
'validation_ood_activitynet' 1 434
'validation_ood_wikihow' 3 607
  • Structure des fonctionnalités :
FeaturesDict({
    'activity_label': Text(shape=(), dtype=string),
    'context': Text(shape=(), dtype=string),
    'endings': Sequence(Text(shape=(), dtype=string)),
    'label': int32,
    'source_id': Text(shape=(), dtype=string),
    'split_type': Text(shape=(), dtype=string),
})
  • Documentation des fonctionnalités :
Caractéristique Classer Forme Dtype La description
FonctionnalitésDict
étiquette_activité Texte chaîne de caractères
le contexte Texte chaîne de caractères
terminaisons Séquence (texte) (Aucun,) chaîne de caractères
étiquette Tenseur int32
id_source Texte chaîne de caractères
split_type Texte chaîne de caractères
  • Citation :
@inproceedings{zellers2019hellaswag,
    title={HellaSwag: Can a Machine Really Finish Your Sentence?},
    author={Zellers, Rowan and Holtzman, Ari and Bisk, Yonatan and Farhadi, Ali and Choi, Yejin},
    booktitle ={Proceedings of the 57th Annual Meeting of the Association for Computational Linguistics},
    year={2019}
}