crema_d

  • Description:

CREMA-D est un ensemble de données audiovisuelles pour la reconnaissance des émotions. L'ensemble de données se compose d'expressions émotionnelles faciales et vocales dans des phrases prononcées dans une gamme d'états émotionnels de base (heureux, triste, colère, peur, dégoût et neutre). 7 442 clips de 91 acteurs d'origines ethniques diverses ont été collectés. Cette version ne contient que le flux audio de l'enregistrement audiovisuel original. Les échantillons sont répartis entre le train, la validation et le test de sorte que les échantillons de chaque locuteur appartiennent à exactement une division.

Diviser Exemples
'test' 1 556
'train' 5.144
'validation' 738
  • Caractéristiques:
FeaturesDict({
    'audio': Audio(shape=(None,), dtype=tf.int64),
    'label': ClassLabel(shape=(), dtype=tf.int64, num_classes=6),
    'speaker_id': tf.string,
})
  • citation:
@article{cao2014crema,
  title={ {CREMA-D}: Crowd-sourced emotional multimodal actors dataset},
  author={Cao, Houwei and Cooper, David G and Keutmann, Michael K and Gur, Ruben C and Nenkova, Ani and Verma, Ragini},
  journal={IEEE transactions on affective computing},
  volume={5},
  number={4},
  pages={377--390},
  year={2014},
  publisher={IEEE}
}