crème_d

  • Descriptif :

CREMA-D est un ensemble de données audiovisuelles pour la reconnaissance des émotions. L'ensemble de données se compose d'expressions émotionnelles faciales et vocales dans des phrases prononcées dans une gamme d'états émotionnels de base (heureux, triste, colère, peur, dégoût et neutre). 7 442 clips de 91 acteurs aux origines ethniques diverses ont été collectés. Cette version contient uniquement le flux audio de l'enregistrement audiovisuel original. Les échantillons sont répartis entre le train, la validation et le test afin que les échantillons de chaque locuteur appartiennent à exactement une division.

Diviser Exemples
'test' 1 556
'train' 5 144
'validation' 738
  • Structure des fonctionnalités :
FeaturesDict({
    'audio': Audio(shape=(None,), dtype=int64),
    'label': ClassLabel(shape=(), dtype=int64, num_classes=6),
    'speaker_id': string,
})
  • Documentation des fonctionnalités :
Caractéristique Classer Forme Dtype La description
FonctionnalitésDict
l'audio l'audio (Aucun,) int64
étiquette Étiquette de classe int64
id_haut-parleur Tenseur chaîne de caractères
  • Citation :
@article{cao2014crema,
  title={ {CREMA-D}: Crowd-sourced emotional multimodal actors dataset},
  author={Cao, Houwei and Cooper, David G and Keutmann, Michael K and Gur, Ruben C and Nenkova, Ani and Verma, Ragini},
  journal={IEEE transactions on affective computing},
  volume={5},
  number={4},
  pages={377--390},
  year={2014},
  publisher={IEEE}
}