• คำอธิบาย :

คลังข้อมูลนี้มีโพสต์ที่ประมวลผลล่วงหน้าจากชุดข้อมูล Reddit ชุดข้อมูลประกอบด้วย 3,848,330 โพสต์ โดยมีความยาวเฉลี่ย 270 คำสำหรับเนื้อหา และ 28 คำสำหรับสรุป

คุณสมบัติรวมถึงสตริง: ผู้แต่ง, เนื้อหา, ร่างกายปกติ, เนื้อหา, สรุป, subreddit, subreddit_id เนื้อหาใช้เป็นเอกสารและสรุปใช้เป็นบทสรุป

แยก ตัวอย่าง
'train' 3,848,330
  • โครงสร้างคุณลักษณะ :
    'author': string,
    'body': string,
    'content': string,
    'id': string,
    'normalizedBody': string,
    'subreddit': string,
    'subreddit_id': string,
    'summary': string,
  • เอกสารคุณสมบัติ :
คุณสมบัติ ระดับ รูปร่าง Dประเภท คำอธิบาย
ผู้เขียน เทนเซอร์ สตริง
ร่างกาย เทนเซอร์ สตริง
เนื้อหา เทนเซอร์ สตริง
รหัส เทนเซอร์ สตริง
ร่างกายปกติ เทนเซอร์ สตริง
ซับเรดดิท เทนเซอร์ สตริง
subreddit_id เทนเซอร์ สตริง
สรุป เทนเซอร์ สตริง
  • การอ้างอิง :
    title = "{TL};{DR}: Mining {R}eddit to Learn Automatic Summarization",
    author = {V{\"o}lske, Michael  and
      Potthast, Martin  and
      Syed, Shahbaz  and
      Stein, Benno},
    booktitle = "Proceedings of the Workshop on New Frontiers in Summarization",
    month = sep,
    year = "2017",
    address = "Copenhagen, Denmark",
    publisher = "Association for Computational Linguistics",
    url = "",
    doi = "10.18653/v1/W17-4508",
    pages = "59--63",
    abstract = "Recent advances in automatic text summarization have used deep neural networks to generate high-quality abstractive summaries, but the performance of these models strongly depends on large amounts of suitable training data. We propose a new method for mining social media for author-provided summaries, taking advantage of the common practice of appending a {``}TL;DR{''} to long posts. A case study using a large Reddit crawl yields the Webis-TLDR-17 dataset, complementing existing corpora primarily from the news genre. Our technique is likely applicable to other social media sites and general web crawls.",