mrqa

  • বর্ণনা :

MRQA 2019 শেয়ার্ড টাস্ক প্রশ্নের উত্তরে সাধারণীকরণের উপর দৃষ্টি নিবদ্ধ করে। একটি কার্যকর প্রশ্নের উত্তর দেওয়ার সিস্টেমের শুধুমাত্র একই বন্টন থেকে নেওয়া পরীক্ষার উদাহরণগুলির উত্তর দেওয়ার জন্য প্রশিক্ষণ সেট থেকে ইন্টারপোলেট করার চেয়ে আরও বেশি কিছু করা উচিত: এটি বিতরণের বাইরের উদাহরণগুলিতে এক্সট্রাপোলেট করতে সক্ষম হওয়া উচিত - একটি উল্লেখযোগ্যভাবে কঠিন চ্যালেঞ্জ।

MRQA একই বিন্যাসে (SQuAD বিন্যাস) একাধিক স্বতন্ত্র প্রশ্নের উত্তরকারী ডেটাসেট (বিদ্যমান ডেটাসেটের সাবধানে নির্বাচিত উপসেট) অভিযোজিত করে এবং একীভূত করে। তাদের মধ্যে, ছয়টি ডেটাসেট প্রশিক্ষণের জন্য উপলব্ধ করা হয়েছিল, এবং ছয়টি ডেটাসেট পরীক্ষার জন্য উপলব্ধ করা হয়েছিল। প্রশিক্ষণ ডেটাসেটের ছোট অংশগুলি ইন-ডোমেন ডেটা হিসাবে রাখা হয়েছিল যা বিকাশের জন্য ব্যবহার করা যেতে পারে। টেস্টিং ডেটাসেটে শুধুমাত্র ডোমেনের বাইরের ডেটা থাকে। এই বেঞ্চমার্কটি MRQA 2019 শেয়ার্ড টাস্কের অংশ হিসাবে প্রকাশ করা হয়েছে।

আরও তথ্য এখানে পাওয়া যাবে: <a href="https://mrqa.github.io/2019/shared.html">https://mrqa.github.io/2019/shared.html</a>

FeaturesDict({
    'answers': Sequence(string),
    'context': string,
    'context_tokens': Sequence({
        'offsets': int32,
        'tokens': string,
    }),
    'detected_answers': Sequence({
        'char_spans': Sequence({
            'end': int32,
            'start': int32,
        }),
        'text': string,
        'token_spans': Sequence({
            'end': int32,
            'start': int32,
        }),
    }),
    'qid': string,
    'question': string,
    'question_tokens': Sequence({
        'offsets': int32,
        'tokens': string,
    }),
    'subset': string,
})
  • বৈশিষ্ট্য ডকুমেন্টেশন :
বৈশিষ্ট্য ক্লাস আকৃতি ডিটাইপ বর্ণনা
ফিচারসডিক্ট
উত্তর ক্রম (টেনসর) (কোনটিই নয়,) স্ট্রিং
প্রসঙ্গ টেনসর স্ট্রিং
প্রসঙ্গ_টোকেন ক্রম
প্রসঙ্গ_টোকেন/অফসেট টেনসর int32
প্রসঙ্গ_টোকেন/টোকেন টেনসর স্ট্রিং
সনাক্ত করা_উত্তর ক্রম
সনাক্ত করা_উত্তর/চার_স্প্যান ক্রম
সনাক্ত করা_উত্তর/char_spans/end টেনসর int32
সনাক্ত করা_উত্তর/char_spans/start টেনসর int32
সনাক্ত করা_উত্তর/পাঠ্য টেনসর স্ট্রিং
সনাক্ত করা_উত্তর/টোকেন_স্প্যান ক্রম
সনাক্ত_উত্তর/টোকেন_স্প্যান/শেষ টেনসর int32
সনাক্ত_উত্তর/টোকেন_স্প্যান/শুরু টেনসর int32
qid টেনসর স্ট্রিং
প্রশ্ন টেনসর স্ট্রিং
প্রশ্ন_টোকেন ক্রম
প্রশ্ন_টোকেন/অফসেট টেনসর int32
প্রশ্ন_টোকেন/টোকেন টেনসর স্ট্রিং
উপসেট টেনসর স্ট্রিং

mrqa/squad (ডিফল্ট কনফিগারেশন)

  • কনফিগার বিবরণ : SQuAD (স্ট্যানফোর্ড প্রশ্ন উত্তর ডেটাসেট) ডেটাসেট ভাগ করা টাস্ক ফরম্যাটের ভিত্তি হিসাবে ব্যবহৃত হয়। ক্রাউডওয়ার্কারদের উইকিপিডিয়া থেকে অনুচ্ছেদ দেখানো হয় এবং উত্তোলনমূলক উত্তর সহ প্রশ্ন লিখতে বলা হয়।

  • ডাউনলোডের আকার : 29.66 MiB

  • ডেটাসেটের আকার : 271.43 MiB

  • স্বয়ংক্রিয় ক্যাশে ( ডকুমেন্টেশন ): না

  • বিভাজন :

বিভক্ত উদাহরণ
'train' ৮৬,৫৮৮
'validation' 10,507
  • উদ্ধৃতি :
@inproceedings{rajpurkar-etal-2016-squad,
    title = "{SQ}u{AD}: 100,000+ Questions for Machine Comprehension of Text",
    author = "Rajpurkar, Pranav  and
      Zhang, Jian  and
      Lopyrev, Konstantin  and
      Liang, Percy",
    booktitle = "Proceedings of the 2016 Conference on Empirical Methods in Natural Language Processing",
    month = nov,
    year = "2016",
    address = "Austin, Texas",
    publisher = "Association for Computational Linguistics",
    url = "https://aclanthology.org/D16-1264",
    doi = "10.18653/v1/D16-1264",
    pages = "2383--2392",
}

@inproceedings{fisch-etal-2019-mrqa,
    title = "{MRQA} 2019 Shared Task: Evaluating Generalization in Reading Comprehension",
    author = "Fisch, Adam  and
      Talmor, Alon  and
      Jia, Robin  and
      Seo, Minjoon  and
      Choi, Eunsol  and
      Chen, Danqi",
    booktitle = "Proceedings of the 2nd Workshop on Machine Reading for Question Answering",
    month = nov,
    year = "2019",
    address = "Hong Kong, China",
    publisher = "Association for Computational Linguistics",
    url = "https://aclanthology.org/D19-5801",
    doi = "10.18653/v1/D19-5801",
    pages = "1--13",
}

Note that each MRQA dataset has its own citation. Please see the source to see
the correct citation for each contained dataset."

mrqa/news_qa

  • কনফিগারেশনের বিবরণ : CNN সংবাদ নিবন্ধের উপর ভিত্তি করে দুই সেট ভিড় কর্মীরা প্রশ্ন জিজ্ঞাসা করে এবং উত্তর দেয়। "প্রশ্নকারীরা" শুধুমাত্র নিবন্ধের শিরোনাম এবং সারাংশ দেখেন যখন "উত্তরদাতারা" সম্পূর্ণ নিবন্ধটি দেখেন। যে প্রশ্নগুলির কোন উত্তর নেই বা ডেটাসেটে পতাকাঙ্কিত করা হয়েছে টীকা চুক্তি ছাড়াই সেগুলি বাতিল করা হয়৷

  • ডাউনলোড সাইজ : 56.83 MiB

  • ডেটাসেটের আকার : 654.25 MiB

  • স্বয়ংক্রিয় ক্যাশে ( ডকুমেন্টেশন ): না

  • বিভাজন :

বিভক্ত উদাহরণ
'train' 74,160
'validation' 4,212
  • উদ্ধৃতি :
@inproceedings{trischler-etal-2017-newsqa,
        title = "{N}ews{QA}: A Machine Comprehension Dataset",
        author = "Trischler, Adam  and
          Wang, Tong  and
          Yuan, Xingdi  and
          Harris, Justin  and
          Sordoni, Alessandro  and
          Bachman, Philip  and
          Suleman, Kaheer",
        booktitle = "Proceedings of the 2nd Workshop on Representation Learning for {NLP}",
        month = aug,
        year = "2017",
        address = "Vancouver, Canada",
        publisher = "Association for Computational Linguistics",
        url = "https://aclanthology.org/W17-2623",
        doi = "10.18653/v1/W17-2623",
        pages = "191--200",
    }
#
@inproceedings{fisch-etal-2019-mrqa,
    title = "{MRQA} 2019 Shared Task: Evaluating Generalization in Reading Comprehension",
    author = "Fisch, Adam  and
      Talmor, Alon  and
      Jia, Robin  and
      Seo, Minjoon  and
      Choi, Eunsol  and
      Chen, Danqi",
    booktitle = "Proceedings of the 2nd Workshop on Machine Reading for Question Answering",
    month = nov,
    year = "2019",
    address = "Hong Kong, China",
    publisher = "Association for Computational Linguistics",
    url = "https://aclanthology.org/D19-5801",
    doi = "10.18653/v1/D19-5801",
    pages = "1--13",
}

Note that each MRQA dataset has its own citation. Please see the source to see
the correct citation for each contained dataset."

mrqa/trivia_qa

  • কনফিগারেশনের বিবরণ : প্রশ্ন ও উত্তর জোড়া ট্রিভিয়া এবং কুইজ-লীগ ওয়েবসাইট থেকে নেওয়া হয়েছে। TriviaQA এর ওয়েব সংস্করণ, যেখানে প্রসঙ্গগুলি একটি Bing অনুসন্ধান প্রশ্নের ফলাফল থেকে পুনরুদ্ধার করা হয়, ব্যবহার করা হয়।

  • ডাউনলোড সাইজ : 383.14 MiB

  • ডেটাসেটের আকার : 772.75 MiB

  • স্বয়ংক্রিয় ক্যাশে ( ডকুমেন্টেশন ): না

  • বিভাজন :

বিভক্ত উদাহরণ
'train' 61,688
'validation' ৭,৭৮৫
  • উদ্ধৃতি :
@inproceedings{joshi-etal-2017-triviaqa,
    title = "{T}rivia{QA}: A Large Scale Distantly Supervised Challenge Dataset for Reading Comprehension",
    author = "Joshi, Mandar  and
      Choi, Eunsol  and
      Weld, Daniel  and
      Zettlemoyer, Luke",
    booktitle = "Proceedings of the 55th Annual Meeting of the Association for Computational Linguistics (Volume 1: Long Papers)",
    month = jul,
    year = "2017",
    address = "Vancouver, Canada",
    publisher = "Association for Computational Linguistics",
    url = "https://aclanthology.org/P17-1147",
    doi = "10.18653/v1/P17-1147",
    pages = "1601--1611",
}

@inproceedings{fisch-etal-2019-mrqa,
    title = "{MRQA} 2019 Shared Task: Evaluating Generalization in Reading Comprehension",
    author = "Fisch, Adam  and
      Talmor, Alon  and
      Jia, Robin  and
      Seo, Minjoon  and
      Choi, Eunsol  and
      Chen, Danqi",
    booktitle = "Proceedings of the 2nd Workshop on Machine Reading for Question Answering",
    month = nov,
    year = "2019",
    address = "Hong Kong, China",
    publisher = "Association for Computational Linguistics",
    url = "https://aclanthology.org/D19-5801",
    doi = "10.18653/v1/D19-5801",
    pages = "1--13",
}

Note that each MRQA dataset has its own citation. Please see the source to see
the correct citation for each contained dataset."

mrqa/search_qa

  • কনফিগারেশনের বিবরণ : প্রশ্ন এবং উত্তর জোড়া বিপদ থেকে উৎসারিত হয়! টিভি শো. প্রসঙ্গগুলি একটি Google অনুসন্ধান ক্যোয়ারী থেকে পুনরুদ্ধার করা স্নিপেটগুলির সমন্বয়ে গঠিত।

  • ডাউনলোডের আকার : 699.86 MiB

  • ডেটাসেটের আকার : 1.38 GiB

  • স্বয়ংক্রিয় ক্যাশে ( ডকুমেন্টেশন ): না

  • বিভাজন :

বিভক্ত উদাহরণ
'train' 117,384
'validation' 16,980
  • উদ্ধৃতি :
@article{dunn2017searchqa,
    title={Searchqa: A new q\&a dataset augmented with context from a search engine},
    author={Dunn, Matthew and Sagun, Levent and Higgins, Mike and Guney, V Ugur and Cirik, Volkan and Cho, Kyunghyun},
    journal={arXiv preprint arXiv:1704.05179},
    year={2017}
}

@inproceedings{fisch-etal-2019-mrqa,
    title = "{MRQA} 2019 Shared Task: Evaluating Generalization in Reading Comprehension",
    author = "Fisch, Adam  and
      Talmor, Alon  and
      Jia, Robin  and
      Seo, Minjoon  and
      Choi, Eunsol  and
      Chen, Danqi",
    booktitle = "Proceedings of the 2nd Workshop on Machine Reading for Question Answering",
    month = nov,
    year = "2019",
    address = "Hong Kong, China",
    publisher = "Association for Computational Linguistics",
    url = "https://aclanthology.org/D19-5801",
    doi = "10.18653/v1/D19-5801",
    pages = "1--13",
}

Note that each MRQA dataset has its own citation. Please see the source to see
the correct citation for each contained dataset."

mrqa/hotpot_qa

  • কনফিগারেশনের বিবরণ : ভিড়ওয়ার্কারদের উইকিপিডিয়া থেকে দুটি সত্তা-সংযুক্ত অনুচ্ছেদ দেখানো হয় এবং তাদের এমন প্রশ্ন লিখতে এবং উত্তর দিতে বলা হয় যার সমাধানের জন্য বহু-হপ যুক্তির প্রয়োজন হয়। মূল সেটিংয়ে, অনুমানকে আরও কঠিন করার জন্য এই অনুচ্ছেদগুলিকে অতিরিক্ত বিভ্রান্তিকর অনুচ্ছেদের সাথে মিশ্রিত করা হয়। এখানে, বিক্ষিপ্ত অনুচ্ছেদ অন্তর্ভুক্ত করা হয় না.

  • ডাউনলোড সাইজ : 111.98 MiB

  • ডেটাসেটের আকার : 272.87 MiB

  • স্বয়ংক্রিয় ক্যাশে ( ডকুমেন্টেশন ): না

  • বিভাজন :

বিভক্ত উদাহরণ
'train' 72,928
'validation' 5,901
  • উদ্ধৃতি :
@inproceedings{yang-etal-2018-hotpotqa,
    title = "{H}otpot{QA}: A Dataset for Diverse, Explainable Multi-hop Question Answering",
    author = "Yang, Zhilin  and
      Qi, Peng  and
      Zhang, Saizheng  and
      Bengio, Yoshua  and
      Cohen, William  and
      Salakhutdinov, Ruslan  and
      Manning, Christopher D.",
    booktitle = "Proceedings of the 2018 Conference on Empirical Methods in Natural Language Processing",
    month = oct # "-" # nov,
    year = "2018",
    address = "Brussels, Belgium",
    publisher = "Association for Computational Linguistics",
    url = "https://aclanthology.org/D18-1259",
    doi = "10.18653/v1/D18-1259",
    pages = "2369--2380",
}

@inproceedings{fisch-etal-2019-mrqa,
    title = "{MRQA} 2019 Shared Task: Evaluating Generalization in Reading Comprehension",
    author = "Fisch, Adam  and
      Talmor, Alon  and
      Jia, Robin  and
      Seo, Minjoon  and
      Choi, Eunsol  and
      Chen, Danqi",
    booktitle = "Proceedings of the 2nd Workshop on Machine Reading for Question Answering",
    month = nov,
    year = "2019",
    address = "Hong Kong, China",
    publisher = "Association for Computational Linguistics",
    url = "https://aclanthology.org/D19-5801",
    doi = "10.18653/v1/D19-5801",
    pages = "1--13",
}

Note that each MRQA dataset has its own citation. Please see the source to see
the correct citation for each contained dataset."

mrqa/প্রাকৃতিক_প্রশ্ন

  • কনফিগারেশনের বিবরণ : প্রাকৃতিক পরিস্থিতিতে প্রকৃত ব্যবহারকারীদের দ্বারা Google সার্চ ইঞ্জিনে তথ্য-সন্ধানী প্রশ্ন থেকে প্রশ্ন সংগ্রহ করা হয়। প্রশ্নের উত্তর ভিকিপিডিয়ার একটি পুনরুদ্ধার পৃষ্ঠায় ভিড় কর্মীর দ্বারা টীকা করা হয়েছে। দুই ধরনের টীকা সংগ্রহ করা হয়: 1) এইচটিএমএল বাউন্ডিং বাক্সে যথেষ্ট তথ্য রয়েছে যাতে প্রশ্নের উত্তর সম্পূর্ণরূপে অনুমান করা যায় (দীর্ঘ উত্তর), এবং 2) বাউন্ডিং বক্সের মধ্যে সাবস্প্যান বা সাব-স্প্যান যা প্রকৃত উত্তর (সংক্ষিপ্ত উত্তর) অন্তর্ভুক্ত করে ) শুধুমাত্র সংক্ষিপ্ত উত্তর আছে যে উদাহরণ ব্যবহার করা হয়, এবং দীর্ঘ উত্তর প্রসঙ্গ হিসাবে ব্যবহার করা হয়.

  • ডাউনলোড সাইজ : 121.15 MiB

  • ডেটাসেটের আকার : 339.03 MiB

  • স্বয়ংক্রিয় ক্যাশে ( ডকুমেন্টেশন ): না

  • বিভাজন :

বিভক্ত উদাহরণ
'train' 104,071
'validation' 12,836
  • উদ্ধৃতি :
@article{kwiatkowski-etal-2019-natural,
    title = "Natural Questions: A Benchmark for Question Answering Research",
    author = "Kwiatkowski, Tom  and
      Palomaki, Jennimaria  and
      Redfield, Olivia  and
      Collins, Michael  and
      Parikh, Ankur  and
      Alberti, Chris  and
      Epstein, Danielle  and
      Polosukhin, Illia  and
      Devlin, Jacob  and
      Lee, Kenton  and
      Toutanova, Kristina  and
      Jones, Llion  and
      Kelcey, Matthew  and
      Chang, Ming-Wei  and
      Dai, Andrew M.  and
      Uszkoreit, Jakob  and
      Le, Quoc  and
      Petrov, Slav",
    journal = "Transactions of the Association for Computational Linguistics",
    volume = "7",
    year = "2019",
    address = "Cambridge, MA",
    publisher = "MIT Press",
    url = "https://aclanthology.org/Q19-1026",
    doi = "10.1162/tacl_a_00276",
    pages = "452--466",
}

@inproceedings{fisch-etal-2019-mrqa,
    title = "{MRQA} 2019 Shared Task: Evaluating Generalization in Reading Comprehension",
    author = "Fisch, Adam  and
      Talmor, Alon  and
      Jia, Robin  and
      Seo, Minjoon  and
      Choi, Eunsol  and
      Chen, Danqi",
    booktitle = "Proceedings of the 2nd Workshop on Machine Reading for Question Answering",
    month = nov,
    year = "2019",
    address = "Hong Kong, China",
    publisher = "Association for Computational Linguistics",
    url = "https://aclanthology.org/D19-5801",
    doi = "10.18653/v1/D19-5801",
    pages = "1--13",
}

Note that each MRQA dataset has its own citation. Please see the source to see
the correct citation for each contained dataset."

mrqa/bio_asq

  • কনফিগারেশনের বিবরণ : BioASQ, বড় আকারের বায়োমেডিকাল শব্দার্থিক সূচীকরণ এবং প্রশ্নের উত্তরের একটি চ্যালেঞ্জ, এতে প্রশ্ন এবং উত্তর জোড়া রয়েছে যা ডোমেন বিশেষজ্ঞদের দ্বারা তৈরি করা হয়েছে। সেগুলি ম্যানুয়ালি একাধিক সম্পর্কিত বিজ্ঞান (PubMed) নিবন্ধগুলির সাথে লিঙ্ক করা হয়৷ লিঙ্ক করা প্রতিটি নিবন্ধের সম্পূর্ণ বিমূর্ত ডাউনলোড করা হয় এবং পৃথক প্রসঙ্গ হিসাবে ব্যবহার করা হয় (যেমন, একাধিক QA-প্রসঙ্গ জোড়া তৈরি করতে একটি একক প্রশ্ন একাধিক, স্বাধীন নিবন্ধের সাথে লিঙ্ক করা যেতে পারে)। বিমূর্ত যে উত্তর ধারণ করে না বাতিল করা হয়.

  • ডাউনলোড সাইজ : 2.54 MiB

  • ডেটাসেটের আকার : 6.70 MiB

  • স্বয়ংক্রিয় ক্যাশে ( ডকুমেন্টেশন ): হ্যাঁ

  • বিভাজন :

বিভক্ত উদাহরণ
'test' 1,504
  • উদ্ধৃতি :
@article{tsatsaronis2015overview,
    title={An overview of the BIOASQ large-scale biomedical semantic indexing and question answering competition},
    author={Tsatsaronis, George and Balikas, Georgios and Malakasiotis, Prodromos and Partalas, Ioannis and Zschunke, Matthias and Alvers, Michael R and Weissenborn, Dirk and Krithara, Anastasia and Petridis, Sergios and Polychronopoulos, Dimitris and others},
    journal={BMC bioinformatics},
    volume={16},
    number={1},
    pages={1--28},
    year={2015},
    publisher={Springer}
}

@inproceedings{fisch-etal-2019-mrqa,
    title = "{MRQA} 2019 Shared Task: Evaluating Generalization in Reading Comprehension",
    author = "Fisch, Adam  and
      Talmor, Alon  and
      Jia, Robin  and
      Seo, Minjoon  and
      Choi, Eunsol  and
      Chen, Danqi",
    booktitle = "Proceedings of the 2nd Workshop on Machine Reading for Question Answering",
    month = nov,
    year = "2019",
    address = "Hong Kong, China",
    publisher = "Association for Computational Linguistics",
    url = "https://aclanthology.org/D19-5801",
    doi = "10.18653/v1/D19-5801",
    pages = "1--13",
}

Note that each MRQA dataset has its own citation. Please see the source to see
the correct citation for each contained dataset."

mrqa/ড্রপ

  • কনফিগারেশনের বিবরণ : ড্রপ (অনুচ্ছেদের বিষয়বস্তুর উপর বিচ্ছিন্ন যুক্তি) উদাহরণগুলি স্কোয়াডের অনুরূপভাবে সংগ্রহ করা হয়েছিল, যেখানে ভিকিপিডিয়ার অনুচ্ছেদগুলি থেকে প্রশ্ন-উত্তর জোড়া তৈরি করতে ভিড় কর্মীদের বলা হয়। প্রশ্নগুলি পরিমাণগত যুক্তির উপর ফোকাস করে, এবং মূল ডেটাসেটে নন-এক্সট্রাক্টিভ সাংখ্যিক উত্তরের পাশাপাশি নিষ্কাশনমূলক পাঠ্য উত্তর রয়েছে। এক্সট্রাক্টিভ প্রশ্নের সেট ব্যবহার করা হয়।

  • ডাউনলোডের আকার : 578.25 KiB

  • ডেটাসেটের আকার : 5.41 MiB

  • স্বয়ংক্রিয় ক্যাশে ( ডকুমেন্টেশন ): হ্যাঁ

  • বিভাজন :

বিভক্ত উদাহরণ
'test' 1,503
  • উদ্ধৃতি :
@inproceedings{dua-etal-2019-drop,
    title = "{DROP}: A Reading Comprehension Benchmark Requiring Discrete Reasoning Over Paragraphs",
    author = "Dua, Dheeru  and
      Wang, Yizhong  and
      Dasigi, Pradeep  and
      Stanovsky, Gabriel  and
      Singh, Sameer  and
      Gardner, Matt",
    booktitle = "Proceedings of the 2019 Conference of the North {A}merican Chapter of the Association for Computational Linguistics: Human Language Technologies, Volume 1 (Long and Short Papers)",
    month = jun,
    year = "2019",
    address = "Minneapolis, Minnesota",
    publisher = "Association for Computational Linguistics",
    url = "https://aclanthology.org/N19-1246",
    doi = "10.18653/v1/N19-1246",
    pages = "2368--2378",
}

@inproceedings{fisch-etal-2019-mrqa,
    title = "{MRQA} 2019 Shared Task: Evaluating Generalization in Reading Comprehension",
    author = "Fisch, Adam  and
      Talmor, Alon  and
      Jia, Robin  and
      Seo, Minjoon  and
      Choi, Eunsol  and
      Chen, Danqi",
    booktitle = "Proceedings of the 2nd Workshop on Machine Reading for Question Answering",
    month = nov,
    year = "2019",
    address = "Hong Kong, China",
    publisher = "Association for Computational Linguistics",
    url = "https://aclanthology.org/D19-5801",
    doi = "10.18653/v1/D19-5801",
    pages = "1--13",
}

Note that each MRQA dataset has its own citation. Please see the source to see
the correct citation for each contained dataset."

mrqa/duo_rc

  • কনফিগারেশনের বিবরণ : DuoRC ডেটাসেটের ParaphraseRC স্প্লিট ব্যবহার করা হয়। এই সেটিংয়ে, একই মুভির দুটি ভিন্ন প্লটের সারাংশ সংগ্রহ করা হয়েছে- একটি উইকিপিডিয়া থেকে এবং অন্যটি আইএমডিবি থেকে। ভিড় কর্মীর দুটি ভিন্ন সেট মুভির প্লট সম্পর্কে প্রশ্ন জিজ্ঞাসা করে এবং উত্তর দেয়, যেখানে "প্রশ্নকারীদের" শুধুমাত্র উইকিপিডিয়া পৃষ্ঠায় দেখানো হয় এবং "উত্তরদাতাদের" শুধুমাত্র IMDb পৃষ্ঠা দেখানো হয়। যে প্রশ্নগুলি উত্তরযোগ্য হিসাবে চিহ্নিত করা হয়েছে তা বাতিল করা হয়েছে।

  • ডাউনলোড আকার : 1.14 MiB

  • ডেটাসেটের আকার : 15.04 MiB

  • স্বয়ংক্রিয় ক্যাশে ( ডকুমেন্টেশন ): হ্যাঁ

  • বিভাজন :

বিভক্ত উদাহরণ
'test' 1,501
  • উদ্ধৃতি :
@inproceedings{saha-etal-2018-duorc,
    title = "{D}uo{RC}: Towards Complex Language Understanding with Paraphrased Reading Comprehension",
    author = "Saha, Amrita  and
      Aralikatte, Rahul  and
      Khapra, Mitesh M.  and
      Sankaranarayanan, Karthik",
    booktitle = "Proceedings of the 56th Annual Meeting of the Association for Computational Linguistics (Volume 1: Long Papers)",
    month = jul,
    year = "2018",
    address = "Melbourne, Australia",
    publisher = "Association for Computational Linguistics",
    url = "https://aclanthology.org/P18-1156",
    doi = "10.18653/v1/P18-1156",
    pages = "1683--1693",
}

@inproceedings{fisch-etal-2019-mrqa,
    title = "{MRQA} 2019 Shared Task: Evaluating Generalization in Reading Comprehension",
    author = "Fisch, Adam  and
      Talmor, Alon  and
      Jia, Robin  and
      Seo, Minjoon  and
      Choi, Eunsol  and
      Chen, Danqi",
    booktitle = "Proceedings of the 2nd Workshop on Machine Reading for Question Answering",
    month = nov,
    year = "2019",
    address = "Hong Kong, China",
    publisher = "Association for Computational Linguistics",
    url = "https://aclanthology.org/D19-5801",
    doi = "10.18653/v1/D19-5801",
    pages = "1--13",
}

Note that each MRQA dataset has its own citation. Please see the source to see
the correct citation for each contained dataset."

mrqa/জাতি

  • কনফিগারেশনের বিবরণ : রিডিং কম্প্রিহেনশন ডেটাসেট ফ্রম এক্সামিনেশনস (RACE) মিডল এবং হাই স্কুল চাইনিজ ছাত্রদের জন্য ইংরেজি রিডিং কম্প্রিহেনশন পরীক্ষা থেকে সংগ্রহ করা হয়। উচ্চ বিদ্যালয়ের বিভাজন (যা আরও চ্যালেঞ্জিং) ব্যবহার করা হয় এবং অন্তর্নিহিত "খালি পূরণ করুন" শৈলীর প্রশ্নগুলি (যা এই কাজের জন্য অপ্রাকৃত) ফিল্টার করা হয়।

  • ডাউনলোড আকার : 1.49 MiB

  • ডেটাসেটের আকার : 3.53 MiB

  • স্বয়ংক্রিয় ক্যাশে ( ডকুমেন্টেশন ): হ্যাঁ

  • বিভাজন :

বিভক্ত উদাহরণ
'test' 674
  • উদ্ধৃতি :
@inproceedings{lai-etal-2017-race,
    title = "{RACE}: Large-scale {R}e{A}ding Comprehension Dataset From Examinations",
    author = "Lai, Guokun  and
      Xie, Qizhe  and
      Liu, Hanxiao  and
      Yang, Yiming  and
      Hovy, Eduard",
    booktitle = "Proceedings of the 2017 Conference on Empirical Methods in Natural Language Processing",
    month = sep,
    year = "2017",
    address = "Copenhagen, Denmark",
    publisher = "Association for Computational Linguistics",
    url = "https://aclanthology.org/D17-1082",
    doi = "10.18653/v1/D17-1082",
    pages = "785--794",
}

@inproceedings{fisch-etal-2019-mrqa,
    title = "{MRQA} 2019 Shared Task: Evaluating Generalization in Reading Comprehension",
    author = "Fisch, Adam  and
      Talmor, Alon  and
      Jia, Robin  and
      Seo, Minjoon  and
      Choi, Eunsol  and
      Chen, Danqi",
    booktitle = "Proceedings of the 2nd Workshop on Machine Reading for Question Answering",
    month = nov,
    year = "2019",
    address = "Hong Kong, China",
    publisher = "Association for Computational Linguistics",
    url = "https://aclanthology.org/D19-5801",
    doi = "10.18653/v1/D19-5801",
    pages = "1--13",
}

Note that each MRQA dataset has its own citation. Please see the source to see
the correct citation for each contained dataset."

mrqa/relation_extraction

  • কনফিগারেশনের বিবরণ : একটি স্লট-ফিলিং ডেটাসেট দেওয়া, সত্তার মধ্যে সম্পর্কগুলি নিয়মতান্ত্রিকভাবে টেমপ্লেট ব্যবহার করে প্রশ্নউত্তর জোড়ায় রূপান্তরিত হয়। উদাহরণস্বরূপ, একটি বাক্যে উপস্থিত দুটি সত্তা x এবং y-এর মধ্যে educated_at(x, y) সম্পর্কটিকে "x কোথায় শিক্ষিত ছিল?" হিসাবে প্রকাশ করা যেতে পারে। উত্তর y সহ। প্রতিটি ধরনের সম্পর্কের জন্য একাধিক টেমপ্লেট সংগ্রহ করা হয়। ডেটাসেটের জিরোশট বেঞ্চমার্ক বিভক্ত (অদেখা সম্পর্কের সাধারণীকরণ) ব্যবহার করা হয় এবং শুধুমাত্র ইতিবাচক উদাহরণ রাখা হয়।

  • ডাউনলোড 830.88 KiB

  • ডেটাসেটের আকার : 3.71 MiB

  • স্বয়ংক্রিয় ক্যাশে ( ডকুমেন্টেশন ): হ্যাঁ

  • বিভাজন :

বিভক্ত উদাহরণ
'test' 2,948
  • উদ্ধৃতি :
@inproceedings{levy-etal-2017-zero,
    title = "Zero-Shot Relation Extraction via Reading Comprehension",
    author = "Levy, Omer  and
      Seo, Minjoon  and
      Choi, Eunsol  and
      Zettlemoyer, Luke",
    booktitle = "Proceedings of the 21st Conference on Computational Natural Language Learning ({C}o{NLL} 2017)",
    month = aug,
    year = "2017",
    address = "Vancouver, Canada",
    publisher = "Association for Computational Linguistics",
    url = "https://aclanthology.org/K17-1034",
    doi = "10.18653/v1/K17-1034",
    pages = "333--342",
}

@inproceedings{fisch-etal-2019-mrqa,
    title = "{MRQA} 2019 Shared Task: Evaluating Generalization in Reading Comprehension",
    author = "Fisch, Adam  and
      Talmor, Alon  and
      Jia, Robin  and
      Seo, Minjoon  and
      Choi, Eunsol  and
      Chen, Danqi",
    booktitle = "Proceedings of the 2nd Workshop on Machine Reading for Question Answering",
    month = nov,
    year = "2019",
    address = "Hong Kong, China",
    publisher = "Association for Computational Linguistics",
    url = "https://aclanthology.org/D19-5801",
    doi = "10.18653/v1/D19-5801",
    pages = "1--13",
}

Note that each MRQA dataset has its own citation. Please see the source to see
the correct citation for each contained dataset."

mrqa/পাঠ্যপুস্তক_qa

  • কনফিগারেশনের বিবরণ : পাঠ্যপুস্তক কিউএ মিডল স্কুল লাইফ সায়েন্স, আর্থ সায়েন্স এবং ফিজিক্যাল সায়েন্সের পাঠ্যপুস্তক থেকে সংগ্রহ করা হয়েছে। যে প্রশ্নগুলির সাথে একটি ডায়াগ্রাম রয়েছে বা যেগুলি "সত্য বা মিথ্যা" প্রশ্নগুলি অন্তর্ভুক্ত নয়৷

  • ডাউনলোড সাইজ : 1.79 MiB

  • ডেটাসেটের আকার : 14.04 MiB

  • স্বয়ংক্রিয় ক্যাশে ( ডকুমেন্টেশন ): হ্যাঁ

  • বিভাজন :

বিভক্ত উদাহরণ
'test' 1,503
  • উদ্ধৃতি :
@inproceedings{kembhavi2017you,
    title={Are you smarter than a sixth grader? textbook question answering for multimodal machine comprehension},
    author={Kembhavi, Aniruddha and Seo, Minjoon and Schwenk, Dustin and Choi, Jonghyun and Farhadi, Ali and Hajishirzi, Hannaneh},
    booktitle={Proceedings of the IEEE Conference on Computer Vision and Pattern recognition},
    pages={4999--5007},
    year={2017}
}

@inproceedings{fisch-etal-2019-mrqa,
    title = "{MRQA} 2019 Shared Task: Evaluating Generalization in Reading Comprehension",
    author = "Fisch, Adam  and
      Talmor, Alon  and
      Jia, Robin  and
      Seo, Minjoon  and
      Choi, Eunsol  and
      Chen, Danqi",
    booktitle = "Proceedings of the 2nd Workshop on Machine Reading for Question Answering",
    month = nov,
    year = "2019",
    address = "Hong Kong, China",
    publisher = "Association for Computational Linguistics",
    url = "https://aclanthology.org/D19-5801",
    doi = "10.18653/v1/D19-5801",
    pages = "1--13",
}

Note that each MRQA dataset has its own citation. Please see the source to see
the correct citation for each contained dataset."