¡El Día de la Comunidad de ML es el 9 de noviembre! Únase a nosotros para recibir actualizaciones de TensorFlow, JAX, y más Más información

salvar

  • Descripción:

SAVEE (Surrey Audio-Visual Expressed Emotion) es un conjunto de datos de reconocimiento de emociones. Consiste en grabaciones de 4 actores masculinos en 7 emociones diferentes, 480 expresiones en inglés británico en total. Las oraciones se eligieron del corpus estándar TIMIT y se equilibraron fonéticamente para cada emoción. Esta versión contiene solo el flujo de audio de la grabación audiovisual original. Los datos se dividen de modo que el conjunto de entrenamiento consta de 2 hablantes, y tanto el conjunto de validación como el de prueba constan de muestras de 1 hablante, respectivamente.

  • Inicio: http://kahlan.eps.surrey.ac.uk/savee/

  • El código fuente: tfds.audio.Savee

  • versiones:

    • 1.0.0 (por defecto): No hay notas de la versión.
  • Tamaño del paquete: Unknown size

  • Conjunto de datos de tamaño: 259.15 MiB

  • Las instrucciones de descarga manual: Este conjunto de datos se requiere para descargar los datos de origen manualmente en download_config.manual_dir (por defecto ~/tensorflow_datasets/downloads/manual/ ):
    manual_dir debe contener el archivo AudioData.zip. Este archivo debe estar en Data / Zip / AudioData.zip en la carpeta del conjunto de datos proporcionada al registrarse. Es necesario registrarse en http://personal.ee.surrey.ac.uk/Personal/P.Jackson/SAVEE/Register.html con el fin de obtener el enlace para descargar el conjunto de datos.

  • Auto-caché ( documentación ): No

  • Fraccionamientos:

Separar Ejemplos de
'test' 120
'train' 240
'validation' 120
  • características:
FeaturesDict({
    'audio': Audio(shape=(None,), dtype=tf.int64),
    'label': ClassLabel(shape=(), dtype=tf.int64, num_classes=7),
    'speaker_id': tf.string,
})
  • Cita:
@inproceedings{Vlasenko_combiningframe,
author = {Vlasenko, Bogdan and Schuller, Bjorn and Wendemuth, Andreas and Rigoll, Gerhard},
year = {2007},
month = {01},
pages = {2249-2252},
title = {Combining frame and turn-level information for robust recognition of emotions within speech},
journal = {Proceedings of Interspeech}
}