امروز برای رویداد محلی TensorFlow خود در همه جا پاسخ دهید!
این صفحه به‌وسیله ‏Cloud Translation API‏ ترجمه شده است.
Switch to English

گیگاورد

  • توضیحات :

تولید عنوان در مجموعه ای از جفت مقاله ها از Gigaword شامل حدود 4 میلیون مقاله. از "org_data" ارائه شده توسط https://github.com/microsoft/unilm/ استفاده کنید که یکسان با https://github.com/harvardnlp/sent-summary اما با قالب بهتر است.

دو ویژگی وجود دارد: - سند: مقاله. - خلاصه: تیتر.

شکاف مثال ها
'test' 1،951
'train' 3،803،957
'validation' 189651
  • ویژگی ها :
FeaturesDict({
    'document': Text(shape=(), dtype=tf.string),
    'summary': Text(shape=(), dtype=tf.string),
})
  • کلیدهای تحت نظارت (به as_supervised سند نظارت شده مراجعه کنید): ('document', 'summary')

  • نقل قول :

@article{graff2003english,
  title={English gigaword},
  author={Graff, David and Kong, Junbo and Chen, Ke and Maeda, Kazuaki},
  journal={Linguistic Data Consortium, Philadelphia},
  volume={4},
  number={1},
  pages={34},
  year={2003}
}

@article{Rush_2015,
   title={A Neural Attention Model for Abstractive Sentence Summarization},
   url={http://dx.doi.org/10.18653/v1/D15-1044},
   DOI={10.18653/v1/d15-1044},
   journal={Proceedings of the 2015 Conference on Empirical Methods in Natural Language Processing},
   publisher={Association for Computational Linguistics},
   author={Rush, Alexander M. and Chopra, Sumit and Weston, Jason},
   year={2015}
}