- Описание:
CREMA-D - это набор аудиовизуальных данных для распознавания эмоций. Набор данных состоит из лицевых и голосовых эмоциональных выражений в предложениях, произнесенных в различных основных эмоциональных состояниях (счастье, грусть, гнев, страх, отвращение и нейтральность). Было собрано 7 442 ролика с участием 91 актера разного этнического происхождения. Этот выпуск содержит только аудиопоток из исходной аудиовизуальной записи. Выборки делятся между обучением, проверкой и тестированием, так что образцы от каждого выступающего принадлежат ровно одной группе.
Домашняя страница: https://github.com/CheyneyComputerScience/CREMA-D
Исходный код:
tfds.audio.CremaD
Версии:
-
1.0.0
( по умолчанию): Нет Замечания к выпуску.
-
Скачать Размер:
579.25 MiB
Dataset Размер:
1.65 GiB
Авто-кэшируются ( документация ): Нет
расколы:
Расколоть | Примеры |
---|---|
'test' | 1,556 |
'train' | 5 144 |
'validation' | 738 |
- Особенности:
FeaturesDict({
'audio': Audio(shape=(None,), dtype=tf.int64),
'label': ClassLabel(shape=(), dtype=tf.int64, num_classes=6),
'speaker_id': tf.string,
})
Контролируемые ключи (см
as_supervised
документ ):('audio', 'label')
Рис ( tfds.show_examples ): Не поддерживается.
Примеры ( tfds.as_dataframe ):
- Образец цитирования:
@article{cao2014crema,
title={ {CREMA-D}: Crowd-sourced emotional multimodal actors dataset},
author={Cao, Houwei and Cooper, David G and Keutmann, Michael K and Gur, Ruben C and Nenkova, Ani and Verma, Ragini},
journal={IEEE transactions on affective computing},
volume={5},
number={4},
pages={377--390},
year={2014},
publisher={IEEE}
}