- Описание :
Коллекция из 3 наборов данных ссылающихся выражений на основе изображений в наборе данных COCO. Ссылочное выражение — это фрагмент текста, описывающий уникальный объект на изображении. Эти наборы данных собираются путем обращения к оценщикам с просьбой устранить неоднозначность объектов, очерченных ограничивающими прямоугольниками в наборе данных COCO.
RefCoco и RefCoco+ получены от Kazemzadeh et al. 2014. Выражения RefCoco+ являются строго описаниями, основанными на внешнем виде, которые они обеспечивают, запрещая оценщикам использовать описания, основанные на местоположении (например, «человек справа» не является допустимым описанием для RefCoco+). RefCocoG от Mao et al. 2016, и имеет более богатое описание объектов по сравнению с RefCoco из-за различий в процессе аннотирования. В частности, RefCoco был собран в интерактивной игровой обстановке, а RefCocoG — в неинтерактивной. В среднем RefCocoG содержит 8,4 слова на выражение, а RefCoco — 3,5 слова.
Каждый набор данных имеет разные разделения, которые обычно сообщаются в документах. Наборы «testA» и «testB» в RefCoco и RefCoco+ содержат только людей и только не людей соответственно. Изображения разбиты на различные сплиты. В разделении «google» объекты, а не изображения, разделены между поездами и не поездами. Это означает, что одно и то же изображение может появиться как в поезде, так и в проверочном разделении, но объекты, на которые ссылаются изображения, будут разными в этих двух наборах. Напротив, «unc» и «umd» разбивают образы разделов между поездом, проверкой и тестом. В RefCocoG раздел "google" не имеет канонического тестового набора, а проверочный набор обычно указывается в документах как "val*".
Статистика для каждого набора данных и разделения («ссылки» — это количество ссылающихся выражений, а «изображения» — это количество изображений):
набор данных | раздел | расколоть | судьи | картинки |
---|---|---|---|---|
рефкоко | тренироваться | 40000 | 19213 | |
рефкоко | вал | 5000 | 4559 | |
рефкоко | тестовое задание | 5000 | 4527 | |
рефкоко | unc | тренироваться | 42404 | 16994 |
рефкоко | unc | вал | 3811 | 1500 |
рефкоко | unc | тест А | 1975 г. | 750 |
рефкоко | unc | тест Б | 1810 г. | 750 |
рефкоко+ | unc | тренироваться | 42278 | 16992 |
рефкоко+ | unc | вал | 3805 | 1500 |
рефкоко+ | unc | тест А | 1975 г. | 750 |
рефкоко+ | unc | тест Б | 1798 г. | 750 |
refcocog | тренироваться | 44822 | 24698 | |
refcocog | вал | 5000 | 4650 | |
refcocog | умд | тренироваться | 42226 | 21899 |
refcocog | умд | вал | 2573 | 1300 |
refcocog | умд | тестовое задание | 5023 | 2600 |
Дополнительная документация : изучить документы с кодом
Домашняя страница : https://github.com/lichengunc/refer
Исходный код :
tfds.datasets.ref_coco.Builder
Версии :
-
1.0.0
(по умолчанию): Первоначальный выпуск.
-
Размер загрузки :
Unknown size
Инструкции по ручной загрузке : этот набор данных требует, чтобы вы загружали исходные данные вручную в
download_config.manual_dir
(по умолчанию~/tensorflow_datasets/downloads/manual/
):Следуйте инструкциям на странице https://github.com/lichengunc/refer и загрузите аннотации и изображения, соответствующие каталогу data/, указанному в репозитории.
Следуйте инструкциям PythonAPI в https://github.com/cocodataset/cocoapi , чтобы получить pycocotools и файл аннотаций instances_train2014 с https://cocodataset.org/#download .
Добавьте refer.py из (1) и pycocotools из (2) в ваш PYTHONPATH.
Запустите manual_download_process.py, чтобы сгенерировать refcoco.json, заменив
ref_data_root
,coco_annotations_file
иout_file
значениями, соответствующими тому, где вы загрузили или хотите сохранить эти файлы. Обратите внимание, что manual_download_process.py можно найти в репозитории TFDS.Загрузите обучающий набор COCO с https://cocodataset.org/#download и поместите его в папку с именем
coco_train2014/
. Переместитеrefcoco.json
на тот же уровень, что иcoco_train2014
.Следуйте стандартным инструкциям по загрузке руководства.
Автоматическое кэширование ( документация ): Нет
Структура функции :
FeaturesDict({
'coco_annotations': Sequence({
'area': int64,
'bbox': BBoxFeature(shape=(4,), dtype=float32),
'id': int64,
'label': int64,
}),
'image': Image(shape=(None, None, 3), dtype=uint8),
'image/id': int64,
'objects': Sequence({
'area': int64,
'bbox': BBoxFeature(shape=(4,), dtype=float32),
'gt_box_index': int64,
'id': int64,
'label': int64,
'refexp': Sequence({
'raw': Text(shape=(), dtype=string),
'refexp_id': int64,
}),
}),
})
- Документация по функциям :
Особенность | Учебный класс | Форма | Dтип | Описание |
---|---|---|---|---|
ОсобенностиDict | ||||
coco_annotations | Последовательность | |||
coco_annotations/площадь | Тензор | int64 | ||
coco_annotations/bbox | BBoxFeature | (4,) | поплавок32 | |
coco_annotations/id | Тензор | int64 | ||
coco_annotations/метка | Тензор | int64 | ||
изображение | Изображение | (Нет, Нет, 3) | uint8 | |
изображение/идентификатор | Тензор | int64 | ||
объекты | Последовательность | |||
объекты/площадь | Тензор | int64 | ||
объекты/bbox | BBoxFeature | (4,) | поплавок32 | |
объекты/gt_box_index | Тензор | int64 | ||
объекты/идентификатор | Тензор | int64 | ||
объекты/метка | Тензор | int64 | ||
объекты/refexp | Последовательность | |||
объекты/refexp/сырые | Текст | нить | ||
объекты/refexp/refexp_id | Тензор | int64 |
Ключи под наблюдением (см . документ
as_supervised
):None
Цитата :
@inproceedings{kazemzadeh2014referitgame,
title={Referitgame: Referring to objects in photographs of natural scenes},
author={Kazemzadeh, Sahar and Ordonez, Vicente and Matten, Mark and Berg, Tamara},
booktitle={Proceedings of the 2014 conference on empirical methods in natural language processing (EMNLP)},
pages={787--798},
year={2014}
}
@inproceedings{yu2016modeling,
title={Modeling context in referring expressions},
author={Yu, Licheng and Poirson, Patrick and Yang, Shan and Berg, Alexander C and Berg, Tamara L},
booktitle={European Conference on Computer Vision},
pages={69--85},
year={2016},
organization={Springer}
}
@inproceedings{mao2016generation,
title={Generation and Comprehension of Unambiguous Object Descriptions},
author={Mao, Junhua and Huang, Jonathan and Toshev, Alexander and Camburu, Oana and Yuille, Alan and Murphy, Kevin},
booktitle={CVPR},
year={2016}
}
@inproceedings{nagaraja2016modeling,
title={Modeling context between objects for referring expression understanding},
author={Nagaraja, Varun K and Morariu, Vlad I and Davis, Larry S},
booktitle={European Conference on Computer Vision},
pages={792--807},
year={2016},
organization={Springer}
}
ref_coco/refcoco_unc (конфигурация по умолчанию)
Размер набора данных :
3.24 GiB
Сплиты :
Расколоть | Примеры |
---|---|
'testA' | 750 |
'testB' | 750 |
'train' | 16 994 |
'validation' | 1500 |
- Рисунок ( tfds.show_examples ):
- Примеры ( tfds.as_dataframe ):
ref_coco/refcoco_google
Размер набора данных :
4.60 GiB
Сплиты :
Расколоть | Примеры |
---|---|
'test' | 4527 |
'train' | 19 213 |
'validation' | 4559 |
- Рисунок ( tfds.show_examples ):
- Примеры ( tfds.as_dataframe ):
ref_coco/refcocoplus_unc
Размер набора данных :
3.24 GiB
Сплиты :
Расколоть | Примеры |
---|---|
'testA' | 750 |
'testB' | 750 |
'train' | 16 992 |
'validation' | 1500 |
- Рисунок ( tfds.show_examples ):
- Примеры ( tfds.as_dataframe ):
ref_coco/refcocog_google
Размер набора данных :
4.59 GiB
Сплиты :
Расколоть | Примеры |
---|---|
'train' | 24 698 |
'validation' | 4650 |
- Рисунок ( tfds.show_examples ):
- Примеры ( tfds.as_dataframe ):
ref_coco/refcocog_umd
Размер набора данных :
4.04 GiB
Сплиты :
Расколоть | Примеры |
---|---|
'test' | 2600 |
'train' | 21 899 |
'validation' | 1300 |
- Рисунок ( tfds.show_examples ):
- Примеры ( tfds.as_dataframe ):