- Описание:
SAVEE (Surrey Audio-Visual Expressed Emotion) - это набор данных для распознавания эмоций. Он состоит из записей 4 актеров-мужчин с 7 различными эмоциями, всего 480 высказываний на британском английском. Предложения были выбраны из стандартного корпуса TIMIT и фонетически сбалансированы для каждой эмоции. Этот выпуск содержит только аудиопоток из исходной аудиовизуальной записи. Данные разделяются таким образом, что обучающий набор состоит из 2 динамиков, а набор для проверки и тестирования состоит из выборок от 1 динамика соответственно.
Домашняя страница: http://kahlan.eps.surrey.ac.uk/savee/
Исходный код:
tfds.audio.Savee
Версии:
-
1.0.0
( по умолчанию): Нет Замечания к выпуску.
-
Размер загрузки:
Unknown size
Dataset Размер:
259.15 MiB
Руководство по эксплуатации скачать: Этот набор данных требует от вас , чтобы загрузить исходные данные вручную в
download_config.manual_dir
( по умолчанию~/tensorflow_datasets/downloads/manual/
):
manual_dir должен содержать файл AudioData.zip. Этот файл должен находиться в папке Data / Zip / AudioData.zip в папке набора данных, предоставленной при регистрации. Вы должны зарегистрироваться на http://personal.ee.surrey.ac.uk/Personal/P.Jackson/SAVEE/Register.html для того , чтобы получить ссылку для загрузки набора данных.Авто-кэшируются ( документация ): Нет
расколы:
Расколоть | Примеры |
---|---|
'test' | 120 |
'train' | 240 |
'validation' | 120 |
- Особенности:
FeaturesDict({
'audio': Audio(shape=(None,), dtype=tf.int64),
'label': ClassLabel(shape=(), dtype=tf.int64, num_classes=7),
'speaker_id': tf.string,
})
Контролируемые ключи (см
as_supervised
документ ):('audio', 'label')
Рис ( tfds.show_examples ): Не поддерживается.
Примеры ( tfds.as_dataframe ):
- Образец цитирования:
@inproceedings{Vlasenko_combiningframe,
author = {Vlasenko, Bogdan and Schuller, Bjorn and Wendemuth, Andreas and Rigoll, Gerhard},
year = {2007},
month = {01},
pages = {2249-2252},
title = {Combining frame and turn-level information for robust recognition of emotions within speech},
journal = {Proceedings of Interspeech}
}