O Dia da Comunidade de ML é dia 9 de novembro! Junte-nos para atualização de TensorFlow, JAX, e mais Saiba mais

salvar

  • Descrição:

SAVEE (Surrey Audio-Visual Expressed Emotion) é um conjunto de dados de reconhecimento de emoção. Consiste em gravações de 4 atores masculinos em 7 emoções diferentes, 480 expressões do inglês britânico no total. As sentenças foram escolhidas a partir do corpus TIMIT padrão e balanceadas foneticamente para cada emoção. Esta versão contém apenas o fluxo de áudio da gravação audiovisual original. Os dados são divididos para que o conjunto de treinamento consista em 2 alto-falantes, e tanto o conjunto de validação quanto o de teste consistem em amostras de 1 alto-falante, respectivamente.

  • Homepage: http://kahlan.eps.surrey.ac.uk/savee/

  • O código-fonte: tfds.audio.Savee

  • versões:

    • 1.0.0 (padrão): Não há notas de lançamento.
  • Tamanho do download: Unknown size

  • Dataset size: 259.15 MiB

  • Instruções baixar o manual: Este conjunto de dados requer que você baixe os dados de origem manualmente para download_config.manual_dir (o padrão é ~/tensorflow_datasets/downloads/manual/ ):
    manual_dir deve conter o arquivo AudioData.zip. Este arquivo deve estar em Data / Zip / AudioData.zip na pasta do conjunto de dados fornecida no registro. Você precisa se registrar no http://personal.ee.surrey.ac.uk/Personal/P.Jackson/SAVEE/Register.html , a fim de obter o link para baixar o conjunto de dados.

  • Cache-Auto ( documentação ): Não

  • desdobramentos:

Dividir Exemplos
'test' 120
'train' 240
'validation' 120
  • Características:
FeaturesDict({
    'audio': Audio(shape=(None,), dtype=tf.int64),
    'label': ClassLabel(shape=(), dtype=tf.int64, num_classes=7),
    'speaker_id': tf.string,
})
  • citação:
@inproceedings{Vlasenko_combiningframe,
author = {Vlasenko, Bogdan and Schuller, Bjorn and Wendemuth, Andreas and Rigoll, Gerhard},
year = {2007},
month = {01},
pages = {2249-2252},
title = {Combining frame and turn-level information for robust recognition of emotions within speech},
journal = {Proceedings of Interspeech}
}