Pomoc chronić Wielkiej Rafy Koralowej z TensorFlow na Kaggle Dołącz Wyzwanie

klej

  • opis:

KLEJ, zrozumienie języka ogólnego odniesienia oceny ( https://gluebenchmark.com/ ) jest zbiorem środków na szkolenia, oceny i analizy języka naturalnego systemy zrozumieniem.

klej/cola (domyślna konfiguracja)

  • Opis config: corpus Linguistic DOPUSZCZALNOŚCI składa się z angielskich dopuszczalności orzeczeń zaczerpniętych z książek i artykułów naukowych dotyczących teorii lingwistycznej. Każdy przykład to sekwencja słów z adnotacją, czy jest to zdanie gramatyczne w języku angielskim.

  • Strona domowa: https://nyu-mll.github.io/CoLA/

  • Wielkość pliku: 368.14 KiB

  • Zbiór danych rozmiar: 965.49 KiB

  • dzieli:

Podział Przykłady
'test' 1,063
'train' 8551
'validation' 1,043
  • Cechy:
FeaturesDict({
    'idx': tf.int32,
    'label': ClassLabel(shape=(), dtype=tf.int64, num_classes=2),
    'sentence': Text(shape=(), dtype=tf.string),
})
  • cytat:
@article{warstadt2018neural,
  title={Neural Network Acceptability Judgments},
  author={Warstadt, Alex and Singh, Amanpreet and Bowman, Samuel R},
  journal={arXiv preprint arXiv:1805.12471},
  year={2018}
}
@inproceedings{wang2019glue,
  title={ {GLUE}: A Multi-Task Benchmark and Analysis Platform for Natural Language Understanding},
  author={Wang, Alex and Singh, Amanpreet and Michael, Julian and Hill, Felix and Levy, Omer and Bowman, Samuel R.},
  note={In the Proceedings of ICLR.},
  year={2019}
}

Note that each GLUE dataset has its own citation. Please see the source to see
the correct citation for each contained dataset.

klej/sst2

  • Opis config: Stanford Sentyment bank drzew składa się ze zdań z opinii filmowych i ludzkich adnotacji ich nastrojów. Zadaniem jest przewidzenie sentymentu danego zdania. Używamy dwukierunkowego (dodatniego/ujemnego) podziału klas i używamy tylko etykiet na poziomie zdania.

  • Strona domowa: https://nlp.stanford.edu/sentiment/index.html

  • Wielkość pliku: 7.09 MiB

  • Zestaw danych rozmiar: 7.22 MiB

  • dzieli:

Podział Przykłady
'test' 1821
'train' 67 349
'validation' 872
  • Cechy:
FeaturesDict({
    'idx': tf.int32,
    'label': ClassLabel(shape=(), dtype=tf.int64, num_classes=2),
    'sentence': Text(shape=(), dtype=tf.string),
})
  • cytat:
@inproceedings{socher2013recursive,
  title={Recursive deep models for semantic compositionality over a sentiment treebank},
  author={Socher, Richard and Perelygin, Alex and Wu, Jean and Chuang, Jason and Manning, Christopher D and Ng, Andrew and Potts, Christopher},
  booktitle={Proceedings of the 2013 conference on empirical methods in natural language processing},
  pages={1631--1642},
  year={2013}
}
@inproceedings{wang2019glue,
  title={ {GLUE}: A Multi-Task Benchmark and Analysis Platform for Natural Language Understanding},
  author={Wang, Alex and Singh, Amanpreet and Michael, Julian and Hill, Felix and Levy, Omer and Bowman, Samuel R.},
  note={In the Proceedings of ICLR.},
  year={2019}
}

Note that each GLUE dataset has its own citation. Please see the source to see
the correct citation for each contained dataset.

klej/mrpc

  • Opis config: Microsoft Badania Parafraza Corpus (Dolan & Brockett, 2005) jest corpus par zdanie automatycznie uzyskiwany z internetowych źródeł informacji, z ludzkimi adnotacji do tego, czy zdania w parze są semantycznie równoważne.

  • Strona domowa: https://www.microsoft.com/en-us/download/details.aspx?id=52398

  • Wielkość pliku: 1.43 MiB

  • Zbiór danych Rozmiar: 1.74 MiB

  • dzieli:

Podział Przykłady
'test' 1,725
'train' 3668
'validation' 408
  • Cechy:
FeaturesDict({
    'idx': tf.int32,
    'label': ClassLabel(shape=(), dtype=tf.int64, num_classes=2),
    'sentence1': Text(shape=(), dtype=tf.string),
    'sentence2': Text(shape=(), dtype=tf.string),
})
  • cytat:
@inproceedings{dolan2005automatically,
  title={Automatically constructing a corpus of sentential paraphrases},
  author={Dolan, William B and Brockett, Chris},
  booktitle={Proceedings of the Third International Workshop on Paraphrasing (IWP2005)},
  year={2005}
}
@inproceedings{wang2019glue,
  title={ {GLUE}: A Multi-Task Benchmark and Analysis Platform for Natural Language Understanding},
  author={Wang, Alex and Singh, Amanpreet and Michael, Julian and Hill, Felix and Levy, Omer and Bowman, Samuel R.},
  note={In the Proceedings of ICLR.},
  year={2019}
}

Note that each GLUE dataset has its own citation. Please see the source to see
the correct citation for each contained dataset.

klej/qqp

  • Opis config: The Quora Pytanie Pary2 zestaw danych jest zbiorem par pytanie z pytaniem, odpowiadając społeczności internetowej Quora. Zadanie polega na ustaleniu, czy para pytań jest semantycznie równoważna.

  • Strona domowa: https://data.quora.com/First-Quora-Dataset-Release-Question-Pairs

  • Wielkość pliku: 39.76 MiB

  • Zbiór danych rozmiar: 150.37 MiB

  • dzieli:

Podział Przykłady
'test' 390 965
'train' 363,846
'validation' 40,430
  • Cechy:
FeaturesDict({
    'idx': tf.int32,
    'label': ClassLabel(shape=(), dtype=tf.int64, num_classes=2),
    'question1': Text(shape=(), dtype=tf.string),
    'question2': Text(shape=(), dtype=tf.string),
})
  • cytat:
@online{WinNT,
  author = {Iyer, Shankar and Dandekar, Nikhil and Csernai, Kornel},
  title = {First Quora Dataset Release: Question Pairs},
  year = 2017,
  url = {https://data.quora.com/First-Quora-Dataset-Release-Question-Pairs},
  urldate = {2019-04-03}
}
@inproceedings{wang2019glue,
  title={ {GLUE}: A Multi-Task Benchmark and Analysis Platform for Natural Language Understanding},
  author={Wang, Alex and Singh, Amanpreet and Michael, Julian and Hill, Felix and Levy, Omer and Bowman, Samuel R.},
  note={In the Proceedings of ICLR.},
  year={2019}
}

Note that each GLUE dataset has its own citation. Please see the source to see
the correct citation for each contained dataset.

klej/stsb

  • Opis config: Semantyczna Textual Podobieństwo Benchmark (. Cer et al, 2017) jest zbiorem par zdań zaczerpniętych z nagłówków wiadomości, wideo i graficznych podpisów i danych wnioskowania języka naturalnego. Każda para jest opatrzona adnotacjami ludzkimi z wynikiem podobieństwa od 0 do 5.

  • Strona domowa: http://ixa2.si.ehu.es/stswiki/index.php/STSbenchmark

  • Wielkość pliku: 784.05 KiB

  • Zestaw danych rozmiar: 1.58 MiB

  • dzieli:

Podział Przykłady
'test' 1,379
'train' 5749
'validation' 1500
  • Cechy:
FeaturesDict({
    'idx': tf.int32,
    'label': tf.float32,
    'sentence1': Text(shape=(), dtype=tf.string),
    'sentence2': Text(shape=(), dtype=tf.string),
})
  • cytat:
@article{cer2017semeval,
  title={Semeval-2017 task 1: Semantic textual similarity-multilingual and cross-lingual focused evaluation},
  author={Cer, Daniel and Diab, Mona and Agirre, Eneko and Lopez-Gazpio, Inigo and Specia, Lucia},
  journal={arXiv preprint arXiv:1708.00055},
  year={2017}
}
@inproceedings{wang2019glue,
  title={ {GLUE}: A Multi-Task Benchmark and Analysis Platform for Natural Language Understanding},
  author={Wang, Alex and Singh, Amanpreet and Michael, Julian and Hill, Felix and Levy, Omer and Bowman, Samuel R.},
  note={In the Proceedings of ICLR.},
  year={2019}
}

Note that each GLUE dataset has its own citation. Please see the source to see
the correct citation for each contained dataset.

klej/mnli

  • Opis config: Multi-Gatunek Natural Language Corpus Wnioskowanie jest crowdsourced zbiór par zdaniu tekstowych adnotacji wynikania. Mając zdanie przesłanki i zdanie hipotezy, zadaniem jest przewidzenie, czy przesłanka pociąga za sobą hipotezę (uwikłanie), jest sprzeczna z hipotezą (sprzeczność), czy też nie (neutralna). Zdania oparte na przesłankach są zbierane z dziesięciu różnych źródeł, w tym mowy transkrybowanej, fikcji i raportów rządowych. Korzystamy ze standardowego zestawu testowego, dla którego uzyskaliśmy od autorów etykiety prywatne, i oceniamy zarówno sekcję dopasowaną (w domenie), jak i niedopasowaną (międzydomenową). Używamy również i polecamy korpus SNLI jako 550 tys. przykładów pomocniczych danych treningowych.

  • Strona domowa: http://www.nyu.edu/projects/bowman/multinli/

  • Wielkość pliku: 298.29 MiB

  • Zbiór danych rozmiar: 100.56 MiB

  • dzieli:

Podział Przykłady
'test_matched' 9796
'test_mismatched' 9847
'train' 392 702
'validation_matched' 9815
'validation_mismatched' 9832
  • Cechy:
FeaturesDict({
    'hypothesis': Text(shape=(), dtype=tf.string),
    'idx': tf.int32,
    'label': ClassLabel(shape=(), dtype=tf.int64, num_classes=3),
    'premise': Text(shape=(), dtype=tf.string),
})
  • cytat:
@InProceedings{N18-1101,
  author = "Williams, Adina
            and Nangia, Nikita
            and Bowman, Samuel",
  title = "A Broad-Coverage Challenge Corpus for
           Sentence Understanding through Inference",
  booktitle = "Proceedings of the 2018 Conference of
               the North American Chapter of the
               Association for Computational Linguistics:
               Human Language Technologies, Volume 1 (Long
               Papers)",
  year = "2018",
  publisher = "Association for Computational Linguistics",
  pages = "1112--1122",
  location = "New Orleans, Louisiana",
  url = "http://aclweb.org/anthology/N18-1101"
}
@article{bowman2015large,
  title={A large annotated corpus for learning natural language inference},
  author={Bowman, Samuel R and Angeli, Gabor and Potts, Christopher and Manning, Christopher D},
  journal={arXiv preprint arXiv:1508.05326},
  year={2015}
}
@inproceedings{wang2019glue,
  title={ {GLUE}: A Multi-Task Benchmark and Analysis Platform for Natural Language Understanding},
  author={Wang, Alex and Singh, Amanpreet and Michael, Julian and Hill, Felix and Levy, Omer and Bowman, Samuel R.},
  note={In the Proceedings of ICLR.},
  year={2019}
}

Note that each GLUE dataset has its own citation. Please see the source to see
the correct citation for each contained dataset.

klej/mnli_mismatched

  • Opis config: niedopasowane walidacji i dzieli testy z MNLI. Zobacz "mnli" BuilderConfig, aby uzyskać dodatkowe informacje.

  • Strona domowa: http://www.nyu.edu/projects/bowman/multinli/

  • Wielkość pliku: 298.29 MiB

  • Zbiór danych Rozmiar: 4.79 MiB

  • dzieli:

Podział Przykłady
'test' 9847
'validation' 9832
  • Cechy:
FeaturesDict({
    'hypothesis': Text(shape=(), dtype=tf.string),
    'idx': tf.int32,
    'label': ClassLabel(shape=(), dtype=tf.int64, num_classes=3),
    'premise': Text(shape=(), dtype=tf.string),
})
  • cytat:
@InProceedings{N18-1101,
  author = "Williams, Adina
            and Nangia, Nikita
            and Bowman, Samuel",
  title = "A Broad-Coverage Challenge Corpus for
           Sentence Understanding through Inference",
  booktitle = "Proceedings of the 2018 Conference of
               the North American Chapter of the
               Association for Computational Linguistics:
               Human Language Technologies, Volume 1 (Long
               Papers)",
  year = "2018",
  publisher = "Association for Computational Linguistics",
  pages = "1112--1122",
  location = "New Orleans, Louisiana",
  url = "http://aclweb.org/anthology/N18-1101"
}
@article{bowman2015large,
  title={A large annotated corpus for learning natural language inference},
  author={Bowman, Samuel R and Angeli, Gabor and Potts, Christopher and Manning, Christopher D},
  journal={arXiv preprint arXiv:1508.05326},
  year={2015}
}
@inproceedings{wang2019glue,
  title={ {GLUE}: A Multi-Task Benchmark and Analysis Platform for Natural Language Understanding},
  author={Wang, Alex and Singh, Amanpreet and Michael, Julian and Hill, Felix and Levy, Omer and Bowman, Samuel R.},
  note={In the Proceedings of ICLR.},
  year={2019}
}

Note that each GLUE dataset has its own citation. Please see the source to see
the correct citation for each contained dataset.

klej/mnli_matched

  • Opis config: Znaleziony walidacji i dzieli testy z MNLI. Zobacz "mnli" BuilderConfig, aby uzyskać dodatkowe informacje.

  • Strona domowa: http://www.nyu.edu/projects/bowman/multinli/

  • Wielkość pliku: 298.29 MiB

  • Zbiór danych Rozmiar: 4.58 MiB

  • dzieli:

Podział Przykłady
'test' 9796
'validation' 9815
  • Cechy:
FeaturesDict({
    'hypothesis': Text(shape=(), dtype=tf.string),
    'idx': tf.int32,
    'label': ClassLabel(shape=(), dtype=tf.int64, num_classes=3),
    'premise': Text(shape=(), dtype=tf.string),
})
  • cytat:
@InProceedings{N18-1101,
  author = "Williams, Adina
            and Nangia, Nikita
            and Bowman, Samuel",
  title = "A Broad-Coverage Challenge Corpus for
           Sentence Understanding through Inference",
  booktitle = "Proceedings of the 2018 Conference of
               the North American Chapter of the
               Association for Computational Linguistics:
               Human Language Technologies, Volume 1 (Long
               Papers)",
  year = "2018",
  publisher = "Association for Computational Linguistics",
  pages = "1112--1122",
  location = "New Orleans, Louisiana",
  url = "http://aclweb.org/anthology/N18-1101"
}
@article{bowman2015large,
  title={A large annotated corpus for learning natural language inference},
  author={Bowman, Samuel R and Angeli, Gabor and Potts, Christopher and Manning, Christopher D},
  journal={arXiv preprint arXiv:1508.05326},
  year={2015}
}
@inproceedings{wang2019glue,
  title={ {GLUE}: A Multi-Task Benchmark and Analysis Platform for Natural Language Understanding},
  author={Wang, Alex and Singh, Amanpreet and Michael, Julian and Hill, Felix and Levy, Omer and Bowman, Samuel R.},
  note={In the Proceedings of ICLR.},
  year={2019}
}

Note that each GLUE dataset has its own citation. Please see the source to see
the correct citation for each contained dataset.

klej/qnli

  • Opis config: Stanford Pytanie Odpowiadając zestawu danych jest zbiór danych, odpowiadając na pytanie składające się z par pytanie-ustępu, jeżeli jedno ze zdań w akapicie (zaczerpnięte z Wikipedii) zawiera odpowiedź na pytanie (odpowiadającej pisemnej przez Annotator). Konwertujemy zadanie na klasyfikację par zdań, tworząc parę między każdym pytaniem a każdym zdaniem w odpowiednim kontekście i odfiltrowując pary o niewielkim nałożeniu leksykalnym między pytaniem a zdaniem kontekstowym. Zadanie polega na ustaleniu, czy zdanie kontekstowe zawiera odpowiedź na pytanie. Ta zmodyfikowana wersja oryginalnego zadania usuwa wymóg, aby model wybierał dokładną odpowiedź, ale także usuwa upraszczające założenia, że ​​odpowiedź jest zawsze obecna na danych wejściowych i że nakładanie się leksykalne jest wiarygodną wskazówką.

  • Strona domowa: https://rajpurkar.github.io/SQuAD-explorer/

  • Wielkość pliku: 10.14 MiB

  • Zbiór danych rozmiar: 32.99 MiB

  • dzieli:

Podział Przykłady
'test' 5463
'train' 104 743
'validation' 5463
  • Cechy:
FeaturesDict({
    'idx': tf.int32,
    'label': ClassLabel(shape=(), dtype=tf.int64, num_classes=2),
    'question': Text(shape=(), dtype=tf.string),
    'sentence': Text(shape=(), dtype=tf.string),
})
  • cytat:
@article{rajpurkar2016squad,
  title={Squad: 100,000+ questions for machine comprehension of text},
  author={Rajpurkar, Pranav and Zhang, Jian and Lopyrev, Konstantin and Liang, Percy},
  journal={arXiv preprint arXiv:1606.05250},
  year={2016}
}
@inproceedings{wang2019glue,
  title={ {GLUE}: A Multi-Task Benchmark and Analysis Platform for Natural Language Understanding},
  author={Wang, Alex and Singh, Amanpreet and Michael, Julian and Hill, Felix and Levy, Omer and Bowman, Samuel R.},
  note={In the Proceedings of ICLR.},
  year={2019}
}

Note that each GLUE dataset has its own citation. Please see the source to see
the correct citation for each contained dataset.

klej/rte

  • Opis config: The Uznając Textual Entailment (RTE) zbiory danych pochodzą z serii corocznych tekstowych wyzwań wynikania. Łączymy dane z RTE1 (Dagan et al., 2006), RTE2 (Bar Haim et al., 2006), RTE3 (Giampiccolo et al., 2007) oraz RTE5 (Bentivogli et al., 2009).4 Przykłady to: zbudowany na podstawie wiadomości i tekstu Wikipedii. Wszystkie zbiory danych konwertujemy do podziału na dwie klasy, gdzie w przypadku zbiorów danych o trzech klasach zamieniamy neutralność i sprzeczność na brak implikacji, w celu zapewnienia spójności.

  • Strona domowa: https://aclweb.org/aclwiki/Recognizing_Textual_Entailment

  • Wielkość pliku: 680.81 KiB

  • Zbiór danych Rozmiar: 2.15 MiB

  • dzieli:

Podział Przykłady
'test' 3000
'train' 2490
'validation' 277
  • Cechy:
FeaturesDict({
    'idx': tf.int32,
    'label': ClassLabel(shape=(), dtype=tf.int64, num_classes=2),
    'sentence1': Text(shape=(), dtype=tf.string),
    'sentence2': Text(shape=(), dtype=tf.string),
})
  • cytat:
@inproceedings{dagan2005pascal,
  title={The PASCAL recognising textual entailment challenge},
  author={Dagan, Ido and Glickman, Oren and Magnini, Bernardo},
  booktitle={Machine Learning Challenges Workshop},
  pages={177--190},
  year={2005},
  organization={Springer}
}
@inproceedings{bar2006second,
  title={The second pascal recognising textual entailment challenge},
  author={Bar-Haim, Roy and Dagan, Ido and Dolan, Bill and Ferro, Lisa and Giampiccolo, Danilo and Magnini, Bernardo and Szpektor, Idan},
  booktitle={Proceedings of the second PASCAL challenges workshop on recognising textual entailment},
  volume={6},
  number={1},
  pages={6--4},
  year={2006},
  organization={Venice}
}
@inproceedings{giampiccolo2007third,
  title={The third pascal recognizing textual entailment challenge},
  author={Giampiccolo, Danilo and Magnini, Bernardo and Dagan, Ido and Dolan, Bill},
  booktitle={Proceedings of the ACL-PASCAL workshop on textual entailment and paraphrasing},
  pages={1--9},
  year={2007},
  organization={Association for Computational Linguistics}
}
@inproceedings{bentivogli2009fifth,
  title={The Fifth PASCAL Recognizing Textual Entailment Challenge.},
  author={Bentivogli, Luisa and Clark, Peter and Dagan, Ido and Giampiccolo, Danilo},
  booktitle={TAC},
  year={2009}
}
@inproceedings{wang2019glue,
  title={ {GLUE}: A Multi-Task Benchmark and Analysis Platform for Natural Language Understanding},
  author={Wang, Alex and Singh, Amanpreet and Michael, Julian and Hill, Felix and Levy, Omer and Bowman, Samuel R.},
  note={In the Proceedings of ICLR.},
  year={2019}
}

Note that each GLUE dataset has its own citation. Please see the source to see
the correct citation for each contained dataset.

klej/własny

  • Opis config: The Winograd Schema Wyzwanie (. Levesque et al, 2011) jest zadaniem czytanie ze zrozumieniem, w którym system musi przeczytać zdanie z zaimkiem i wybierz referent tego zaimka z listy wyboru. Przykłady są konstruowane ręcznie, aby udaremnić proste metody statystyczne: Każda z nich jest uzależniona od informacji kontekstowych dostarczonych przez pojedyncze słowo lub frazę w zdaniu. Aby przekształcić problem w klasyfikację par zdań, konstruujemy pary zdań, zastępując niejednoznaczny zaimek każdym możliwym odniesieniem. Zadanie polega na przewidzeniu, czy zdanie z podstawionym zaimkiem jest zawarte w zdaniu pierwotnym. Używamy małego zestawu ewaluacyjnego składającego się z nowych przykładów zaczerpniętych z książek beletrystycznych, które zostały udostępnione prywatnie przez autorów oryginalnego korpusu. Podczas gdy zawarty zestaw treningowy jest zbilansowany między dwiema klasami, zestaw testowy jest między nimi niezrównoważony (65% nie pociąga za sobą). Ponadto, ze względu na dziwactwo danych, zestaw rozwojowy jest kontradyktoryjny: hipotezy są czasami dzielone między przykładami uczącymi i programistycznymi, więc jeśli model zapamiętuje przykłady uczące, przewidzi niewłaściwą etykietę na odpowiednim przykładzie zestawu rozwojowego. Podobnie jak w przypadku QNLI, każdy przykład jest oceniany osobno, więc nie ma systematycznej zgodności między wynikiem modelu w tym zadaniu a jego wynikiem w nieprzekształconym zadaniu pierwotnym. Przekonwertowany zestaw danych nazywamy WNLI (Winograd NLI).

  • Strona domowa: https://cs.nyu.edu/faculty/davise/papers/WinogradSchemas/WS.html

  • Wielkość pliku: 28.32 KiB

  • Zbiór danych rozmiar: 198.88 KiB

  • dzieli:

Podział Przykłady
'test' 146
'train' 635
'validation' 71
  • Cechy:
FeaturesDict({
    'idx': tf.int32,
    'label': ClassLabel(shape=(), dtype=tf.int64, num_classes=2),
    'sentence1': Text(shape=(), dtype=tf.string),
    'sentence2': Text(shape=(), dtype=tf.string),
})
  • cytat:
@inproceedings{levesque2012winograd,
  title={The winograd schema challenge},
  author={Levesque, Hector and Davis, Ernest and Morgenstern, Leora},
  booktitle={Thirteenth International Conference on the Principles of Knowledge Representation and Reasoning},
  year={2012}
}
@inproceedings{wang2019glue,
  title={ {GLUE}: A Multi-Task Benchmark and Analysis Platform for Natural Language Understanding},
  author={Wang, Alex and Singh, Amanpreet and Michael, Julian and Hill, Felix and Levy, Omer and Bowman, Samuel R.},
  note={In the Proceedings of ICLR.},
  year={2019}
}

Note that each GLUE dataset has its own citation. Please see the source to see
the correct citation for each contained dataset.

klej/topór

  • Opis config: Ręcznie-kuratorem zestawu danych dla oceny drobnoziarnistą analizy wydajności systemu w szerokim zakresie zjawisk językowych. Ten zestaw danych ocenia rozumienie zdań za pomocą problemów z wnioskowaniem w języku naturalnym (NLI). Użyj modelu wyszkolonego na MulitNLI, aby wygenerować prognozy dla tego zestawu danych.

  • Strona domowa: https://gluebenchmark.com/diagnostics

  • Wielkość pliku: 217.05 KiB

  • Zbiór danych rozmiar: 299.16 KiB

  • dzieli:

Podział Przykłady
'test' 1,104
  • Cechy:
FeaturesDict({
    'hypothesis': Text(shape=(), dtype=tf.string),
    'idx': tf.int32,
    'label': ClassLabel(shape=(), dtype=tf.int64, num_classes=3),
    'premise': Text(shape=(), dtype=tf.string),
})
  • cytat:
@inproceedings{wang2019glue,
  title={ {GLUE}: A Multi-Task Benchmark and Analysis Platform for Natural Language Understanding},
  author={Wang, Alex and Singh, Amanpreet and Michael, Julian and Hill, Felix and Levy, Omer and Bowman, Samuel R.},
  note={In the Proceedings of ICLR.},
  year={2019}
}

Note that each GLUE dataset has its own citation. Please see the source to see
the correct citation for each contained dataset.