امروز برای رویداد محلی TensorFlow خود در همه جا پاسخ دهید!
این صفحه به‌وسیله ‏Cloud Translation API‏ ترجمه شده است.
Switch to English

داستان_لوح

  • توضیحات :

Test Cloze Test یک چارچوب استدلال جدید برای ارزیابی درک داستان ، تولید داستان و یادگیری متن است. این آزمون برای انتخاب پایان صحیح یک داستان چهار جمله ای به یک سیستم نیاز دارد.

  • توضیحات پیکربندی : سال 2018

  • صفحه اصلی : https://www.cs.rochester.edu/nlp/rocstories/

  • کد منبع : tfds.text.story_cloze.StoryCloze

  • نسخه ها :

    • 1.0.0 (پیش فرض): نسخه اولیه.
  • اندازه بارگیری : Unknown size

  • دستورالعمل های بارگیری دستی : برای این مجموعه داده لازم است که داده های منبع را به صورت دستی در download_config.manual_dir (به طور پیش فرض ~/tensorflow_datasets/downloads/manual/ ):
    به https://www.cs.rochester.edu/nlp/rocstories/ مراجعه کرده و فرم گوگل را برای به دست آوردن مجموعه های داده پر کنید. برای بارگیری مجموعه داده ها ، ایمیلی با پیوند دریافت خواهید کرد. برای داده های سال 2016 ، پرونده اعتبارسنجی و آزمون باید به ترتیب به cloze_test val _spring2016.csv و cloze_test test _spring2016.csv تغییر نام یابد. برای نسخه 2018 ، پرونده اعتبارسنجی و آزمون باید به ترتیب به cloze_test val _winter2018.csv و به cloze_test test _winter2018.csv تغییر نام یابد. هر دو این پرونده ها را به پوشه دستی منتقل کنید.

  • ذخیره خودکار ( مستندات ): بله

  • ویژگی ها :

FeaturesDict({
    'context': Text(shape=(), dtype=tf.string),
    'endings': Sequence(Text(shape=(), dtype=tf.string)),
    'label': tf.int32,
})
  • کلیدهای تحت نظارت (به as_supervised سند نظارت شده مراجعه کنید): None

  • نقل قول :

@inproceedings{sharma-etal-2018-tackling,
    title = "Tackling the Story Ending Biases in The Story Cloze Test",
    author = "Sharma, Rishi  and
      Allen, James  and
      Bakhshandeh, Omid  and
      Mostafazadeh, Nasrin",
    booktitle = "Proceedings of the 56th Annual Meeting of the Association for Computational Linguistics (Volume 2: Short Papers)",
    month = jul,
    year = "2018",
    address = "Melbourne, Australia",
    publisher = "Association for Computational Linguistics",
    url = "https://www.aclweb.org/anthology/P18-2119",
    doi = "10.18653/v1/P18-2119",
    pages = "752--757",
    abstract = "The Story Cloze Test (SCT) is a recent framework for evaluating story comprehension and script learning. There have been a variety of models tackling the SCT so far. Although the original goal behind the SCT was to require systems to perform deep language understanding and commonsense reasoning for successful narrative understanding, some recent models could perform significantly better than the initial baselines by leveraging human-authorship biases discovered in the SCT dataset. In order to shed some light on this issue, we have performed various data analysis and analyzed a variety of top performing models presented for this task. Given the statistics we have aggregated, we have designed a new crowdsourcing scheme that creates a new SCT dataset, which overcomes some of the biases. We benchmark a few models on the new dataset and show that the top-performing model on the original SCT dataset fails to keep up its performance. Our findings further signify the importance of benchmarking NLP systems on various evolving test sets.",
}

story_cloze / 2016 (پیکربندی پیش فرض)

  • اندازه مجموعه داده : 1.15 MiB

  • تقسیم :

شکاف مثال ها
'test' 1،871
'validation' 1،871

story_cloze / 2018

  • اندازه مجموعه داده : 1015.04 KiB

  • تقسیم :

شکاف مثال ها
'test' 1،571
'validation' 1،571