Mrqa

  • Descrizione :

L'attività condivisa MRQA 2019 si concentra sulla generalizzazione nella risposta alle domande. Un sistema di risposta alle domande efficace dovrebbe fare di più che limitarsi a interpolare dal set di addestramento per rispondere a esempi di test tratti dalla stessa distribuzione: dovrebbe anche essere in grado di estrapolare esempi fuori distribuzione: una sfida significativamente più difficile.

MRQA adatta e unifica più set di dati di risposta a domande distinti (sottoinsiemi accuratamente selezionati di set di dati esistenti) nello stesso formato (formato SQuAD). Tra questi, sei set di dati sono stati resi disponibili per la formazione e sei set di dati sono stati resi disponibili per i test. Piccole porzioni dei set di dati di addestramento sono state conservate come dati interni che possono essere utilizzati per lo sviluppo. I set di dati di test contengono solo dati esterni al dominio. Questo benchmark viene rilasciato come parte dell'attività condivisa MRQA 2019.

Ulteriori informazioni sono disponibili all'indirizzo: <a href="https://mrqa.github.io/2019/shared.html">https://mrqa.github.io/2019/shared.html</a> .

FeaturesDict({
    'answers': Sequence(string),
    'context': string,
    'context_tokens': Sequence({
        'offsets': int32,
        'tokens': string,
    }),
    'detected_answers': Sequence({
        'char_spans': Sequence({
            'end': int32,
            'start': int32,
        }),
        'text': string,
        'token_spans': Sequence({
            'end': int32,
            'start': int32,
        }),
    }),
    'qid': string,
    'question': string,
    'question_tokens': Sequence({
        'offsets': int32,
        'tokens': string,
    }),
    'subset': string,
})
  • Documentazione delle funzionalità :
Caratteristica Classe Forma Tipo D Descrizione
CaratteristicheDict
risposte Sequenza (tensore) (Nessuno,) corda
contesto Tensore corda
context_token Sequenza
context_tokens/offset Tensore int32
context_token/token Tensore corda
risposte_rilevate Sequenza
risposte_rilevate/char_spans Sequenza
risposte_rilevate/char_spans/end Tensore int32
detect_answers/char_spans/start Tensore int32
risposte_rilevate/testo Tensore corda
risposte_rilevate/token_spans Sequenza
risposte_rilevate/token_spans/fine Tensore int32
risposte_rilevate/token_spans/start Tensore int32
qid Tensore corda
domanda Tensore corda
question_tokens Sequenza
question_tokens/offset Tensore int32
token_domanda/token Tensore corda
sottoinsieme Tensore corda

mrqa/squad (configurazione predefinita)

  • Descrizione della configurazione : il set di dati SQuAD (Stanford Question Answering Dataset) viene utilizzato come base per il formato dell'attività condivisa. Ai crowdworker vengono mostrati paragrafi da Wikipedia e viene chiesto di scrivere domande con risposte estrattive.

  • Dimensione del download : 29.66 MiB

  • Dimensione del set di dati: 271.43 MiB

  • Cache automatica ( documentazione ): No

  • Divisioni :

Diviso Esempi
'train' 86.588
'validation' 10.507
  • Citazione :
@inproceedings{rajpurkar-etal-2016-squad,
    title = "{SQ}u{AD}: 100,000+ Questions for Machine Comprehension of Text",
    author = "Rajpurkar, Pranav  and
      Zhang, Jian  and
      Lopyrev, Konstantin  and
      Liang, Percy",
    booktitle = "Proceedings of the 2016 Conference on Empirical Methods in Natural Language Processing",
    month = nov,
    year = "2016",
    address = "Austin, Texas",
    publisher = "Association for Computational Linguistics",
    url = "https://aclanthology.org/D16-1264",
    doi = "10.18653/v1/D16-1264",
    pages = "2383--2392",
}

@inproceedings{fisch-etal-2019-mrqa,
    title = "{MRQA} 2019 Shared Task: Evaluating Generalization in Reading Comprehension",
    author = "Fisch, Adam  and
      Talmor, Alon  and
      Jia, Robin  and
      Seo, Minjoon  and
      Choi, Eunsol  and
      Chen, Danqi",
    booktitle = "Proceedings of the 2nd Workshop on Machine Reading for Question Answering",
    month = nov,
    year = "2019",
    address = "Hong Kong, China",
    publisher = "Association for Computational Linguistics",
    url = "https://aclanthology.org/D19-5801",
    doi = "10.18653/v1/D19-5801",
    pages = "1--13",
}

Note that each MRQA dataset has its own citation. Please see the source to see
the correct citation for each contained dataset."

mrqa/notizie_qa

  • Descrizione della configurazione : due gruppi di crowdworker chiedono e rispondono a domande basate su articoli di notizie della CNN. Gli "intervistatori" vedono solo il titolo e il riepilogo dell'articolo mentre gli "intervistatori" vedono l'articolo completo. Le domande che non hanno risposta o che sono contrassegnate nel set di dati come prive del consenso dell'annotatore vengono scartate.

  • Dimensione del download : 56.83 MiB

  • Dimensione del set di dati: 654.25 MiB

  • Cache automatica ( documentazione ): No

  • Divisioni :

Diviso Esempi
'train' 74.160
'validation' 4.212
  • Citazione :
@inproceedings{trischler-etal-2017-newsqa,
        title = "{N}ews{QA}: A Machine Comprehension Dataset",
        author = "Trischler, Adam  and
          Wang, Tong  and
          Yuan, Xingdi  and
          Harris, Justin  and
          Sordoni, Alessandro  and
          Bachman, Philip  and
          Suleman, Kaheer",
        booktitle = "Proceedings of the 2nd Workshop on Representation Learning for {NLP}",
        month = aug,
        year = "2017",
        address = "Vancouver, Canada",
        publisher = "Association for Computational Linguistics",
        url = "https://aclanthology.org/W17-2623",
        doi = "10.18653/v1/W17-2623",
        pages = "191--200",
    }
#
@inproceedings{fisch-etal-2019-mrqa,
    title = "{MRQA} 2019 Shared Task: Evaluating Generalization in Reading Comprehension",
    author = "Fisch, Adam  and
      Talmor, Alon  and
      Jia, Robin  and
      Seo, Minjoon  and
      Choi, Eunsol  and
      Chen, Danqi",
    booktitle = "Proceedings of the 2nd Workshop on Machine Reading for Question Answering",
    month = nov,
    year = "2019",
    address = "Hong Kong, China",
    publisher = "Association for Computational Linguistics",
    url = "https://aclanthology.org/D19-5801",
    doi = "10.18653/v1/D19-5801",
    pages = "1--13",
}

Note that each MRQA dataset has its own citation. Please see the source to see
the correct citation for each contained dataset."

mrqa/trivia_qa

  • Descrizione della configurazione : le coppie di domande e risposte provengono da siti Web di trivia e quiz-league. Viene utilizzata la versione web di TriviaQA, in cui i contesti vengono recuperati dai risultati di una query di ricerca di Bing.

  • Dimensione del download : 383.14 MiB

  • Dimensione del set di dati: 772.75 MiB

  • Cache automatica ( documentazione ): No

  • Divisioni :

Diviso Esempi
'train' 61.688
'validation' 7.785
  • Citazione :
@inproceedings{joshi-etal-2017-triviaqa,
    title = "{T}rivia{QA}: A Large Scale Distantly Supervised Challenge Dataset for Reading Comprehension",
    author = "Joshi, Mandar  and
      Choi, Eunsol  and
      Weld, Daniel  and
      Zettlemoyer, Luke",
    booktitle = "Proceedings of the 55th Annual Meeting of the Association for Computational Linguistics (Volume 1: Long Papers)",
    month = jul,
    year = "2017",
    address = "Vancouver, Canada",
    publisher = "Association for Computational Linguistics",
    url = "https://aclanthology.org/P17-1147",
    doi = "10.18653/v1/P17-1147",
    pages = "1601--1611",
}

@inproceedings{fisch-etal-2019-mrqa,
    title = "{MRQA} 2019 Shared Task: Evaluating Generalization in Reading Comprehension",
    author = "Fisch, Adam  and
      Talmor, Alon  and
      Jia, Robin  and
      Seo, Minjoon  and
      Choi, Eunsol  and
      Chen, Danqi",
    booktitle = "Proceedings of the 2nd Workshop on Machine Reading for Question Answering",
    month = nov,
    year = "2019",
    address = "Hong Kong, China",
    publisher = "Association for Computational Linguistics",
    url = "https://aclanthology.org/D19-5801",
    doi = "10.18653/v1/D19-5801",
    pages = "1--13",
}

Note that each MRQA dataset has its own citation. Please see the source to see
the correct citation for each contained dataset."

mrqa/ricerca_qa

  • Descrizione della configurazione : le coppie di domande e risposte provengono da Jeopardy! Programma televisivo. I contesti sono composti da frammenti recuperati da una query di ricerca di Google.

  • Dimensione del download : 699.86 MiB

  • Dimensione del set di dati: 1.38 GiB

  • Cache automatica ( documentazione ): No

  • Divisioni :

Diviso Esempi
'train' 117.384
'validation' 16.980
  • Citazione :
@article{dunn2017searchqa,
    title={Searchqa: A new q\&a dataset augmented with context from a search engine},
    author={Dunn, Matthew and Sagun, Levent and Higgins, Mike and Guney, V Ugur and Cirik, Volkan and Cho, Kyunghyun},
    journal={arXiv preprint arXiv:1704.05179},
    year={2017}
}

@inproceedings{fisch-etal-2019-mrqa,
    title = "{MRQA} 2019 Shared Task: Evaluating Generalization in Reading Comprehension",
    author = "Fisch, Adam  and
      Talmor, Alon  and
      Jia, Robin  and
      Seo, Minjoon  and
      Choi, Eunsol  and
      Chen, Danqi",
    booktitle = "Proceedings of the 2nd Workshop on Machine Reading for Question Answering",
    month = nov,
    year = "2019",
    address = "Hong Kong, China",
    publisher = "Association for Computational Linguistics",
    url = "https://aclanthology.org/D19-5801",
    doi = "10.18653/v1/D19-5801",
    pages = "1--13",
}

Note that each MRQA dataset has its own citation. Please see the source to see
the correct citation for each contained dataset."

mrqa/hotpot_qa

  • Descrizione della configurazione : ai crowdworker vengono mostrati due paragrafi collegati a entità da Wikipedia e viene chiesto di scrivere e rispondere a domande che richiedono un ragionamento multi-hop per essere risolte. Nell'ambientazione originale, questi paragrafi sono mescolati con ulteriori paragrafi distrattori per rendere più difficile l'inferenza. Qui, i paragrafi del distrattore non sono inclusi.

  • Dimensioni del download : 111.98 MiB

  • Dimensione del set di dati: 272.87 MiB

  • Cache automatica ( documentazione ): No

  • Divisioni :

Diviso Esempi
'train' 72.928
'validation' 5.901
  • Citazione :
@inproceedings{yang-etal-2018-hotpotqa,
    title = "{H}otpot{QA}: A Dataset for Diverse, Explainable Multi-hop Question Answering",
    author = "Yang, Zhilin  and
      Qi, Peng  and
      Zhang, Saizheng  and
      Bengio, Yoshua  and
      Cohen, William  and
      Salakhutdinov, Ruslan  and
      Manning, Christopher D.",
    booktitle = "Proceedings of the 2018 Conference on Empirical Methods in Natural Language Processing",
    month = oct # "-" # nov,
    year = "2018",
    address = "Brussels, Belgium",
    publisher = "Association for Computational Linguistics",
    url = "https://aclanthology.org/D18-1259",
    doi = "10.18653/v1/D18-1259",
    pages = "2369--2380",
}

@inproceedings{fisch-etal-2019-mrqa,
    title = "{MRQA} 2019 Shared Task: Evaluating Generalization in Reading Comprehension",
    author = "Fisch, Adam  and
      Talmor, Alon  and
      Jia, Robin  and
      Seo, Minjoon  and
      Choi, Eunsol  and
      Chen, Danqi",
    booktitle = "Proceedings of the 2nd Workshop on Machine Reading for Question Answering",
    month = nov,
    year = "2019",
    address = "Hong Kong, China",
    publisher = "Association for Computational Linguistics",
    url = "https://aclanthology.org/D19-5801",
    doi = "10.18653/v1/D19-5801",
    pages = "1--13",
}

Note that each MRQA dataset has its own citation. Please see the source to see
the correct citation for each contained dataset."

mrqa/natural_questions

  • Descrizione della configurazione : le domande vengono raccolte dalle query di ricerca di informazioni al motore di ricerca Google da parte di utenti reali in condizioni naturali. Le risposte alle domande sono annotate in una pagina di Wikipedia recuperata dai crowdworker. Vengono raccolti due tipi di annotazioni: 1) il riquadro di delimitazione HTML contenente informazioni sufficienti per dedurre completamente la risposta alla domanda (risposta lunga) e 2) il sottointervallo o i sottocampi all'interno del riquadro di delimitazione che comprendono la risposta effettiva (risposta breve ). Vengono utilizzati solo gli esempi con risposte brevi e la risposta lunga viene utilizzata come contesto.

  • Dimensione del download : 121.15 MiB

  • Dimensione del set di dati: 339.03 MiB

  • Cache automatica ( documentazione ): No

  • Divisioni :

Diviso Esempi
'train' 104.071
'validation' 12.836
  • Citazione :
@article{kwiatkowski-etal-2019-natural,
    title = "Natural Questions: A Benchmark for Question Answering Research",
    author = "Kwiatkowski, Tom  and
      Palomaki, Jennimaria  and
      Redfield, Olivia  and
      Collins, Michael  and
      Parikh, Ankur  and
      Alberti, Chris  and
      Epstein, Danielle  and
      Polosukhin, Illia  and
      Devlin, Jacob  and
      Lee, Kenton  and
      Toutanova, Kristina  and
      Jones, Llion  and
      Kelcey, Matthew  and
      Chang, Ming-Wei  and
      Dai, Andrew M.  and
      Uszkoreit, Jakob  and
      Le, Quoc  and
      Petrov, Slav",
    journal = "Transactions of the Association for Computational Linguistics",
    volume = "7",
    year = "2019",
    address = "Cambridge, MA",
    publisher = "MIT Press",
    url = "https://aclanthology.org/Q19-1026",
    doi = "10.1162/tacl_a_00276",
    pages = "452--466",
}

@inproceedings{fisch-etal-2019-mrqa,
    title = "{MRQA} 2019 Shared Task: Evaluating Generalization in Reading Comprehension",
    author = "Fisch, Adam  and
      Talmor, Alon  and
      Jia, Robin  and
      Seo, Minjoon  and
      Choi, Eunsol  and
      Chen, Danqi",
    booktitle = "Proceedings of the 2nd Workshop on Machine Reading for Question Answering",
    month = nov,
    year = "2019",
    address = "Hong Kong, China",
    publisher = "Association for Computational Linguistics",
    url = "https://aclanthology.org/D19-5801",
    doi = "10.18653/v1/D19-5801",
    pages = "1--13",
}

Note that each MRQA dataset has its own citation. Please see the source to see
the correct citation for each contained dataset."

mrqa/bio_asq

  • Descrizione della configurazione : BioASQ, una sfida sull'indicizzazione semantica biomedica su larga scala e sulla risposta alle domande, contiene coppie di domande e risposte create da esperti di dominio. Vengono quindi collegati manualmente a più articoli scientifici correlati (PubMed). L'abstract completo di ciascuno degli articoli collegati viene scaricato e utilizzato come contesti individuali (ad esempio, una singola domanda può essere collegata a più articoli indipendenti per creare più coppie QA-contesto). Gli abstract che non contengono esattamente la risposta vengono scartati.

  • Dimensioni del download : 2.54 MiB

  • Dimensione del set di dati : 6.70 MiB

  • Auto-cache ( documentazione ): Sì

  • Divisioni :

Diviso Esempi
'test' 1.504
  • Citazione :
@article{tsatsaronis2015overview,
    title={An overview of the BIOASQ large-scale biomedical semantic indexing and question answering competition},
    author={Tsatsaronis, George and Balikas, Georgios and Malakasiotis, Prodromos and Partalas, Ioannis and Zschunke, Matthias and Alvers, Michael R and Weissenborn, Dirk and Krithara, Anastasia and Petridis, Sergios and Polychronopoulos, Dimitris and others},
    journal={BMC bioinformatics},
    volume={16},
    number={1},
    pages={1--28},
    year={2015},
    publisher={Springer}
}

@inproceedings{fisch-etal-2019-mrqa,
    title = "{MRQA} 2019 Shared Task: Evaluating Generalization in Reading Comprehension",
    author = "Fisch, Adam  and
      Talmor, Alon  and
      Jia, Robin  and
      Seo, Minjoon  and
      Choi, Eunsol  and
      Chen, Danqi",
    booktitle = "Proceedings of the 2nd Workshop on Machine Reading for Question Answering",
    month = nov,
    year = "2019",
    address = "Hong Kong, China",
    publisher = "Association for Computational Linguistics",
    url = "https://aclanthology.org/D19-5801",
    doi = "10.18653/v1/D19-5801",
    pages = "1--13",
}

Note that each MRQA dataset has its own citation. Please see the source to see
the correct citation for each contained dataset."

mrqa/goccia

  • Descrizione della configurazione : gli esempi DROP (Discrete Reasoning Over the content of Paragraphs) sono stati raccolti in modo simile a SQuAD, in cui ai crowdworker viene chiesto di creare coppie domanda-risposta dai paragrafi di Wikipedia. Le domande si concentrano sul ragionamento quantitativo e il set di dati originale contiene risposte numeriche non estrattive e risposte testuali estrattive. Viene utilizzato l'insieme di domande estrattive.

  • Dimensione del download : 578.25 KiB

  • Dimensione del set di dati: 5.41 MiB

  • Auto-cache ( documentazione ): Sì

  • Divisioni :

Diviso Esempi
'test' 1.503
  • Citazione :
@inproceedings{dua-etal-2019-drop,
    title = "{DROP}: A Reading Comprehension Benchmark Requiring Discrete Reasoning Over Paragraphs",
    author = "Dua, Dheeru  and
      Wang, Yizhong  and
      Dasigi, Pradeep  and
      Stanovsky, Gabriel  and
      Singh, Sameer  and
      Gardner, Matt",
    booktitle = "Proceedings of the 2019 Conference of the North {A}merican Chapter of the Association for Computational Linguistics: Human Language Technologies, Volume 1 (Long and Short Papers)",
    month = jun,
    year = "2019",
    address = "Minneapolis, Minnesota",
    publisher = "Association for Computational Linguistics",
    url = "https://aclanthology.org/N19-1246",
    doi = "10.18653/v1/N19-1246",
    pages = "2368--2378",
}

@inproceedings{fisch-etal-2019-mrqa,
    title = "{MRQA} 2019 Shared Task: Evaluating Generalization in Reading Comprehension",
    author = "Fisch, Adam  and
      Talmor, Alon  and
      Jia, Robin  and
      Seo, Minjoon  and
      Choi, Eunsol  and
      Chen, Danqi",
    booktitle = "Proceedings of the 2nd Workshop on Machine Reading for Question Answering",
    month = nov,
    year = "2019",
    address = "Hong Kong, China",
    publisher = "Association for Computational Linguistics",
    url = "https://aclanthology.org/D19-5801",
    doi = "10.18653/v1/D19-5801",
    pages = "1--13",
}

Note that each MRQA dataset has its own citation. Please see the source to see
the correct citation for each contained dataset."

mrqa/duo_rc

  • Descrizione della configurazione : viene utilizzata la suddivisione ParaphraseRC del set di dati DuoRC. In questa ambientazione vengono raccolti due diversi riassunti della trama dello stesso film, uno da Wikipedia e l'altro da IMDb. Due diversi gruppi di crowdworker chiedono e rispondono a domande sulla trama del film, in cui agli "intervistatori" viene mostrata solo la pagina di Wikipedia e agli "intervistatori" solo la pagina di IMDb. Le domande contrassegnate come senza risposta vengono scartate.

  • Dimensione del download : 1.14 MiB

  • Dimensione del set di dati: 15.04 MiB

  • Auto-cache ( documentazione ): Sì

  • Divisioni :

Diviso Esempi
'test' 1.501
  • Citazione :
@inproceedings{saha-etal-2018-duorc,
    title = "{D}uo{RC}: Towards Complex Language Understanding with Paraphrased Reading Comprehension",
    author = "Saha, Amrita  and
      Aralikatte, Rahul  and
      Khapra, Mitesh M.  and
      Sankaranarayanan, Karthik",
    booktitle = "Proceedings of the 56th Annual Meeting of the Association for Computational Linguistics (Volume 1: Long Papers)",
    month = jul,
    year = "2018",
    address = "Melbourne, Australia",
    publisher = "Association for Computational Linguistics",
    url = "https://aclanthology.org/P18-1156",
    doi = "10.18653/v1/P18-1156",
    pages = "1683--1693",
}

@inproceedings{fisch-etal-2019-mrqa,
    title = "{MRQA} 2019 Shared Task: Evaluating Generalization in Reading Comprehension",
    author = "Fisch, Adam  and
      Talmor, Alon  and
      Jia, Robin  and
      Seo, Minjoon  and
      Choi, Eunsol  and
      Chen, Danqi",
    booktitle = "Proceedings of the 2nd Workshop on Machine Reading for Question Answering",
    month = nov,
    year = "2019",
    address = "Hong Kong, China",
    publisher = "Association for Computational Linguistics",
    url = "https://aclanthology.org/D19-5801",
    doi = "10.18653/v1/D19-5801",
    pages = "1--13",
}

Note that each MRQA dataset has its own citation. Please see the source to see
the correct citation for each contained dataset."

mrqa/razza

  • Descrizione della configurazione : il set di dati di comprensione della lettura dagli esami (RACE) viene raccolto dagli esami di comprensione della lettura in inglese per studenti cinesi delle scuole medie e superiori. Viene utilizzata la divisione del liceo (che è più impegnativa) e vengono filtrate anche le domande implicite in stile "riempi gli spazi vuoti" (che sono innaturali per questo compito).

  • Dimensione del download : 1.49 MiB

  • Dimensione del set di dati: 3.53 MiB

  • Auto-cache ( documentazione ): Sì

  • Divisioni :

Diviso Esempi
'test' 674
  • Citazione :
@inproceedings{lai-etal-2017-race,
    title = "{RACE}: Large-scale {R}e{A}ding Comprehension Dataset From Examinations",
    author = "Lai, Guokun  and
      Xie, Qizhe  and
      Liu, Hanxiao  and
      Yang, Yiming  and
      Hovy, Eduard",
    booktitle = "Proceedings of the 2017 Conference on Empirical Methods in Natural Language Processing",
    month = sep,
    year = "2017",
    address = "Copenhagen, Denmark",
    publisher = "Association for Computational Linguistics",
    url = "https://aclanthology.org/D17-1082",
    doi = "10.18653/v1/D17-1082",
    pages = "785--794",
}

@inproceedings{fisch-etal-2019-mrqa,
    title = "{MRQA} 2019 Shared Task: Evaluating Generalization in Reading Comprehension",
    author = "Fisch, Adam  and
      Talmor, Alon  and
      Jia, Robin  and
      Seo, Minjoon  and
      Choi, Eunsol  and
      Chen, Danqi",
    booktitle = "Proceedings of the 2nd Workshop on Machine Reading for Question Answering",
    month = nov,
    year = "2019",
    address = "Hong Kong, China",
    publisher = "Association for Computational Linguistics",
    url = "https://aclanthology.org/D19-5801",
    doi = "10.18653/v1/D19-5801",
    pages = "1--13",
}

Note that each MRQA dataset has its own citation. Please see the source to see
the correct citation for each contained dataset."

mrqa/relation_extraction

  • Descrizione della configurazione : dato un set di dati che riempie gli slot, le relazioni tra le entità vengono sistematicamente trasformate in coppie di domande e risposte utilizzando modelli. Ad esempio, la relazione educationed_at(x, y) tra due entità x e y che compaiono in una frase può essere espressa come "Dove ha studiato x?" con risposta y. Vengono raccolti più modelli per ogni tipo di relazione. Viene utilizzata la suddivisione del benchmark zeroshot del set di dati (generalizzazione a relazioni invisibili) e vengono mantenuti solo gli esempi positivi.

  • Dimensione del download : 830.88 KiB

  • Dimensione del set di dati: 3.71 MiB

  • Auto-cache ( documentazione ): Sì

  • Divisioni :

Diviso Esempi
'test' 2.948
  • Citazione :
@inproceedings{levy-etal-2017-zero,
    title = "Zero-Shot Relation Extraction via Reading Comprehension",
    author = "Levy, Omer  and
      Seo, Minjoon  and
      Choi, Eunsol  and
      Zettlemoyer, Luke",
    booktitle = "Proceedings of the 21st Conference on Computational Natural Language Learning ({C}o{NLL} 2017)",
    month = aug,
    year = "2017",
    address = "Vancouver, Canada",
    publisher = "Association for Computational Linguistics",
    url = "https://aclanthology.org/K17-1034",
    doi = "10.18653/v1/K17-1034",
    pages = "333--342",
}

@inproceedings{fisch-etal-2019-mrqa,
    title = "{MRQA} 2019 Shared Task: Evaluating Generalization in Reading Comprehension",
    author = "Fisch, Adam  and
      Talmor, Alon  and
      Jia, Robin  and
      Seo, Minjoon  and
      Choi, Eunsol  and
      Chen, Danqi",
    booktitle = "Proceedings of the 2nd Workshop on Machine Reading for Question Answering",
    month = nov,
    year = "2019",
    address = "Hong Kong, China",
    publisher = "Association for Computational Linguistics",
    url = "https://aclanthology.org/D19-5801",
    doi = "10.18653/v1/D19-5801",
    pages = "1--13",
}

Note that each MRQA dataset has its own citation. Please see the source to see
the correct citation for each contained dataset."

mrqa/libro di testo_qa

  • Descrizione della configurazione : TextbookQA è raccolto dalle lezioni dei libri di testo di scienze della vita, scienze della terra e scienze fisiche della scuola media. Le domande che sono accompagnate da un diagramma o che sono domande "Vero o Falso" non sono incluse.

  • Dimensione del download : 1.79 MiB

  • Dimensione del set di dati: 14.04 MiB

  • Auto-cache ( documentazione ): Sì

  • Divisioni :

Diviso Esempi
'test' 1.503
  • Citazione :
@inproceedings{kembhavi2017you,
    title={Are you smarter than a sixth grader? textbook question answering for multimodal machine comprehension},
    author={Kembhavi, Aniruddha and Seo, Minjoon and Schwenk, Dustin and Choi, Jonghyun and Farhadi, Ali and Hajishirzi, Hannaneh},
    booktitle={Proceedings of the IEEE Conference on Computer Vision and Pattern recognition},
    pages={4999--5007},
    year={2017}
}

@inproceedings{fisch-etal-2019-mrqa,
    title = "{MRQA} 2019 Shared Task: Evaluating Generalization in Reading Comprehension",
    author = "Fisch, Adam  and
      Talmor, Alon  and
      Jia, Robin  and
      Seo, Minjoon  and
      Choi, Eunsol  and
      Chen, Danqi",
    booktitle = "Proceedings of the 2nd Workshop on Machine Reading for Question Answering",
    month = nov,
    year = "2019",
    address = "Hong Kong, China",
    publisher = "Association for Computational Linguistics",
    url = "https://aclanthology.org/D19-5801",
    doi = "10.18653/v1/D19-5801",
    pages = "1--13",
}

Note that each MRQA dataset has its own citation. Please see the source to see
the correct citation for each contained dataset."