सेवी

  • विवरण :

SAVEE (सरे ऑडियो-विजुअल एक्सप्रेसेड इमोशन) एक भावना पहचान डेटासेट है। इसमें 4 पुरुष अभिनेताओं की 7 अलग-अलग भावनाओं की रिकॉर्डिंग शामिल है, कुल 480 ब्रिटिश अंग्रेजी उच्चारण। वाक्यों को मानक TIMIT कोष से चुना गया था और प्रत्येक भावना के लिए ध्वन्यात्मक रूप से संतुलित किया गया था। इस रिलीज में मूल ऑडियो-विजुअल रिकॉर्डिंग से केवल ऑडियो स्ट्रीम शामिल है।

डेटा को विभाजित किया जाता है ताकि प्रशिक्षण सेट में 2 स्पीकर हों, और सत्यापन और परीक्षण सेट दोनों में क्रमशः 1 स्पीकर से नमूने हों।

  • अतिरिक्त दस्तावेज़ीकरण : कोड वाले पेपर्स पर एक्सप्लोर करें

  • होमपेज : http://kahlan.eps.surrey.ac.uk/savee/

  • स्रोत कोड : tfds.datasets.savee.Builder

  • संस्करण :

    • 1.0.0 (डिफ़ॉल्ट): कोई रिलीज़ नोट नहीं।
  • डाउनलोड आकार : Unknown size

  • डेटासेट का आकार : 259.15 MiB

  • मैन्युअल डाउनलोड निर्देश : इस डेटासेट के लिए आपको स्रोत डेटा को मैन्युअल रूप से download_config.manual_dir (डिफ़ॉल्ट रूप से ~/tensorflow_datasets/downloads/manual/ ) में डाउनलोड करना होगा:
    मैन्युअल_डीआईआर में फ़ाइल AudioData.zip होनी चाहिए। यह फ़ाइल पंजीकरण के समय प्रदान किए गए डेटासेट फ़ोल्डर में डेटा/ज़िप/ऑडियोडेटा.ज़िप के अंतर्गत होनी चाहिए। डेटासेट डाउनलोड करने के लिए लिंक प्राप्त करने के लिए आपको http://personal.ee.surrey.ac.uk/Personal/P.Jackson/SAVEE/Register.html पर पंजीकरण करना होगा।

  • ऑटो-कैश्ड ( दस्तावेज़ीकरण ): नहीं

  • विभाजन :

विभाजित करना उदाहरण
'test' 120
'train' 240
'validation' 120
  • फ़ीचर संरचना :
FeaturesDict({
    'audio': Audio(shape=(None,), dtype=int64),
    'label': ClassLabel(shape=(), dtype=int64, num_classes=7),
    'speaker_id': string,
})
  • फ़ीचर दस्तावेज़ीकरण :
विशेषता कक्षा आकार डीटाइप विवरण
विशेषताएं डिक्ट
ऑडियो ऑडियो (कोई भी नहीं,) int64
लेबल क्लासलेबल int64
स्पीकर_आईडी टेन्सर डोरी
  • उद्धरण :
@inproceedings{Vlasenko_combiningframe,
author = {Vlasenko, Bogdan and Schuller, Bjorn and Wendemuth, Andreas and Rigoll, Gerhard},
year = {2007},
month = {01},
pages = {2249-2252},
title = {Combining frame and turn-level information for robust recognition of emotions within speech},
journal = {Proceedings of Interspeech}
}