- Описание :
CNN / DailyMail неанонимный набор данных резюмирования.
Есть две функции: - статья: текст новостной статьи, используемый в качестве резюмируемого документа - основные моменты: объединенный текст основных моментов с каждым выделением и вокруг него, который является целевым резюме
Домашняя страница : https://github.com/abisee/cnn-dailymail
Исходный код :
tfds.summarization.CnnDailymail
Версии :
-
1.0.0
: новый API разделения ( https://tensorflow.org/datasets/splits ) 2.0.0
: Разделяйте целевые предложения новой строкой. (Наличие модели, предсказывающей разделители новой строки, упрощает оценку с помощью ROUGE на уровне сводки.)3.0.0
: Используется корпусная версия.3.1.0
(по умолчанию): удален BuilderConfig.
-
Размер загрузки :
558.32 MiB
Размер набора данных :
1.27 GiB
Автоматическое кэширование ( документация ): Нет
Сплит :
Трещина | Примеры |
---|---|
'test' | 11 490 |
'train' | 287 113 |
'validation' | 13 368 |
- Особенности :
FeaturesDict({
'article': Text(shape=(), dtype=tf.string),
'highlights': Text(shape=(), dtype=tf.string),
})
Контролируемые ключи (см.
as_supervised
doc ):('article', 'highlights')
Цитата :
@article{DBLP:journals/corr/SeeLM17,
author = {Abigail See and
Peter J. Liu and
Christopher D. Manning},
title = {Get To The Point: Summarization with Pointer-Generator Networks},
journal = {CoRR},
volume = {abs/1704.04368},
year = {2017},
url = {http://arxiv.org/abs/1704.04368},
archivePrefix = {arXiv},
eprint = {1704.04368},
timestamp = {Mon, 13 Aug 2018 16:46:08 +0200},
biburl = {https://dblp.org/rec/bib/journals/corr/SeeLM17},
bibsource = {dblp computer science bibliography, https://dblp.org}
}
@inproceedings{hermann2015teaching,
title={Teaching machines to read and comprehend},
author={Hermann, Karl Moritz and Kocisky, Tomas and Grefenstette, Edward and Espeholt, Lasse and Kay, Will and Suleyman, Mustafa and Blunsom, Phil},
booktitle={Advances in neural information processing systems},
pages={1693--1701},
year={2015}
}
Рисунок ( tfds.show_examples ): не поддерживается.
Примеры ( tfds.as_dataframe ):