Эта страница была переведа с помощью Cloud Translation API.
Switch to English

гигаворд

  • Описание :

Генерация заголовков на корпусе пар статей от Gigaword, состоящем из около 4 миллионов статей. Используйте org_data, предоставленное https://github.com/microsoft/unilm/, которое идентично https://github.com/harvardnlp/sent-summary, но в лучшем формате.

Есть две особенности:

  • документ: статья.
  • резюме: заголовок.

  • Домашняя страница : https://github.com/harvardnlp/sent-summary

  • Исходный код : tfds.summarization.Gigaword

  • Версии :

    • 1.2.0 (по умолчанию): без примечаний к выпуску.
  • Размер загрузки : 551.61 MiB

  • Размер набора данных : Unknown size

  • Автоматическое кэширование ( документация ): неизвестно

  • Сплит :

Трещина Примеры
'test' 1 951
'train' 3 803 957
'validation' 189 651
  • Особенности :
FeaturesDict({
    'document': Text(shape=(), dtype=tf.string),
    'summary': Text(shape=(), dtype=tf.string),
})
  • Контролируемые ключи (см. as_supervised doc ): ('document', 'summary')

  • Цитата :

@article{graff2003english,
  title={English gigaword},
  author={Graff, David and Kong, Junbo and Chen, Ke and Maeda, Kazuaki},
  journal={Linguistic Data Consortium, Philadelphia},
  volume={4},
  number={1},
  pages={34},
  year={2003}
}

@article{Rush_2015,
   title={A Neural Attention Model for Abstractive Sentence Summarization},
   url={http://dx.doi.org/10.18653/v1/D15-1044},
   DOI={10.18653/v1/d15-1044},
   journal={Proceedings of the 2015 Conference on Empirical Methods in Natural Language Processing},
   publisher={Association for Computational Linguistics},
   author={Rush, Alexander M. and Chopra, Sumit and Weston, Jason},
   year={2015}
}