- 설명 :
CREMA-D는 감정 인식을 위한 시청각 데이터 세트입니다. 데이터 세트는 다양한 기본 감정 상태(행복, 슬픔, 분노, 공포, 혐오 및 중립)에서 말하는 문장의 얼굴 및 음성 감정 표현으로 구성됩니다. 다양한 민족적 배경을 가진 배우 91명의 영상 7,442개를 모았다. 이 릴리스에는 원본 시청각 녹음의 오디오 스트림만 포함되어 있습니다. 각 스피커의 샘플이 정확히 하나의 분할에 속하도록 샘플이 훈련, 검증 및 테스트 간에 분할됩니다.
소스코드 :
tfds.audio.CremaD
버전 :
-
1.0.0
(기본값): 릴리스 정보가 없습니다.
-
다운로드 크기 :
579.25 MiB
데이터세트 크기 :
1.65 GiB
자동 캐시 ( 문서 ): 아니요
분할 :
나뉘다 | 예 |
---|---|
'test' | 1,556 |
'train' | 5,144 |
'validation' | 738 |
- 기능 구조 :
FeaturesDict({
'audio': Audio(shape=(None,), dtype=int64),
'label': ClassLabel(shape=(), dtype=int64, num_classes=6),
'speaker_id': string,
})
- 기능 문서 :
특징 | 수업 | 모양 | D타입 | 설명 |
---|---|---|---|---|
풍모Dict | ||||
오디오 | 오디오 | (없음,) | int64 | |
상표 | 클래스 레이블 | int64 | ||
speaker_id | 텐서 | 끈 |
감독 키 (
as_supervised
문서 참조):('audio', 'label')
그림 ( tfds.show_examples ): 지원되지 않습니다.
예 ( tfds.as_dataframe ):
- 인용 :
@article{cao2014crema,
title={ {CREMA-D}: Crowd-sourced emotional multimodal actors dataset},
author={Cao, Houwei and Cooper, David G and Keutmann, Michael K and Gur, Ruben C and Nenkova, Ani and Verma, Ragini},
journal={IEEE transactions on affective computing},
volume={5},
number={4},
pages={377--390},
year={2014},
publisher={IEEE}
}