tutkal

  • Açıklama:

Tutkal, Genel Dil Anlama Değerlendirme kriter ( https://gluebenchmark.com/ ) değerlendirilmesi ve sistemlerini anlamada doğal dili analiz eğitimi için kaynak topluluğudur.

tutkal/kola (varsayılan yapılandırma)

  • Yapılandırma tanımı: Dil Kabul Edilebilirlik Corpus dilsel teorisi üzerine kitap ve makale çekilen İngiliz kabul edilebilirlik kararları oluşur. Her örnek, dilbilgisi açısından İngilizce bir cümle olup olmadığına dair açıklamalı bir sözcük dizisidir.

  • Anasayfa: https://nyu-mll.github.io/CoLA/

  • İndirme boyutu: 368.14 KiB

  • Veri kümesi boyutu: 965.49 KiB

  • Splits:

Bölmek Örnekler
'test' 1.063
'train' 8551
'validation' 1.043
  • Özellikler:
FeaturesDict({
    'idx': tf.int32,
    'label': ClassLabel(shape=(), dtype=tf.int64, num_classes=2),
    'sentence': Text(shape=(), dtype=tf.string),
})
  • Citation:
@article{warstadt2018neural,
  title={Neural Network Acceptability Judgments},
  author={Warstadt, Alex and Singh, Amanpreet and Bowman, Samuel R},
  journal={arXiv preprint arXiv:1805.12471},
  year={2018}
}
@inproceedings{wang2019glue,
  title={ {GLUE}: A Multi-Task Benchmark and Analysis Platform for Natural Language Understanding},
  author={Wang, Alex and Singh, Amanpreet and Michael, Julian and Hill, Felix and Levy, Omer and Bowman, Samuel R.},
  note={In the Proceedings of ICLR.},
  year={2019}
}

Note that each GLUE dataset has its own citation. Please see the source to see
the correct citation for each contained dataset.

tutkal/sst2

  • Yapılandırma tanımı: Treebank film incelemeleri ve onların duygu insan açıklamalarından yapılan cümle oluşur Stanford Duyarlılığı. Görev, belirli bir cümlenin duygusunu tahmin etmektir. İki yönlü (olumlu/negatif) sınıf ayrımı kullanıyoruz ve yalnızca cümle düzeyinde etiketler kullanıyoruz.

  • Anasayfa: https://nlp.stanford.edu/sentiment/index.html

  • İndirme boyutu: 7.09 MiB

  • Veri kümesi boyutu: 7.22 MiB

  • Splits:

Bölmek Örnekler
'test' 1.821
'train' 67.349
'validation' 872
  • Özellikler:
FeaturesDict({
    'idx': tf.int32,
    'label': ClassLabel(shape=(), dtype=tf.int64, num_classes=2),
    'sentence': Text(shape=(), dtype=tf.string),
})
  • Citation:
@inproceedings{socher2013recursive,
  title={Recursive deep models for semantic compositionality over a sentiment treebank},
  author={Socher, Richard and Perelygin, Alex and Wu, Jean and Chuang, Jason and Manning, Christopher D and Ng, Andrew and Potts, Christopher},
  booktitle={Proceedings of the 2013 conference on empirical methods in natural language processing},
  pages={1631--1642},
  year={2013}
}
@inproceedings{wang2019glue,
  title={ {GLUE}: A Multi-Task Benchmark and Analysis Platform for Natural Language Understanding},
  author={Wang, Alex and Singh, Amanpreet and Michael, Julian and Hill, Felix and Levy, Omer and Bowman, Samuel R.},
  note={In the Proceedings of ICLR.},
  year={2019}
}

Note that each GLUE dataset has its own citation. Please see the source to see
the correct citation for each contained dataset.

tutkal/mrpc

  • Yapılandırma tanımı: Microsoft Research açımlanması Corpus (Dolan & Brockett, 2005) çifti cümleler anlama sahip olmadığını insan ek açıklamalarla otomatik online haber kaynaklarından elde edilen cümle çiftleri korpus vardır.

  • Anasayfa: https://www.microsoft.com/en-us/download/details.aspx?id=52398

  • İndirme boyutu: 1.43 MiB

  • Veri kümesi boyutu: 1.74 MiB

  • Splits:

Bölmek Örnekler
'test' 1.725
'train' 3.668
'validation' 408
  • Özellikler:
FeaturesDict({
    'idx': tf.int32,
    'label': ClassLabel(shape=(), dtype=tf.int64, num_classes=2),
    'sentence1': Text(shape=(), dtype=tf.string),
    'sentence2': Text(shape=(), dtype=tf.string),
})
  • Citation:
@inproceedings{dolan2005automatically,
  title={Automatically constructing a corpus of sentential paraphrases},
  author={Dolan, William B and Brockett, Chris},
  booktitle={Proceedings of the Third International Workshop on Paraphrasing (IWP2005)},
  year={2005}
}
@inproceedings{wang2019glue,
  title={ {GLUE}: A Multi-Task Benchmark and Analysis Platform for Natural Language Understanding},
  author={Wang, Alex and Singh, Amanpreet and Michael, Julian and Hill, Felix and Levy, Omer and Bowman, Samuel R.},
  note={In the Proceedings of ICLR.},
  year={2019}
}

Note that each GLUE dataset has its own citation. Please see the source to see
the correct citation for each contained dataset.

tutkal/qqp

  • Yapılandırma tanımı: Quora Soru Pairs2 veri kümesi topluluk soru yanıtlayan web Quora gelen soru çiftleri topluluğudur. Görev, bir çift sorunun anlamsal olarak eşdeğer olup olmadığını belirlemektir.

  • Anasayfa: https://data.quora.com/First-Quora-Dataset-Release-Question-Pairs

  • İndirme boyutu: 39.76 MiB

  • Veri kümesi boyutu: 150.37 MiB

  • Splits:

Bölmek Örnekler
'test' 390.965
'train' 363.846
'validation' 40.430
  • Özellikler:
FeaturesDict({
    'idx': tf.int32,
    'label': ClassLabel(shape=(), dtype=tf.int64, num_classes=2),
    'question1': Text(shape=(), dtype=tf.string),
    'question2': Text(shape=(), dtype=tf.string),
})
  • Citation:
@online{WinNT,
  author = {Iyer, Shankar and Dandekar, Nikhil and Csernai, Kornel},
  title = {First Quora Dataset Release: Question Pairs},
  year = 2017,
  url = {https://data.quora.com/First-Quora-Dataset-Release-Question-Pairs},
  urldate = {2019-04-03}
}
@inproceedings{wang2019glue,
  title={ {GLUE}: A Multi-Task Benchmark and Analysis Platform for Natural Language Understanding},
  author={Wang, Alex and Singh, Amanpreet and Michael, Julian and Hill, Felix and Levy, Omer and Bowman, Samuel R.},
  note={In the Proceedings of ICLR.},
  year={2019}
}

Note that each GLUE dataset has its own citation. Please see the source to see
the correct citation for each contained dataset.

tutkal/stsb

  • Yapılandırma tanımı: Semantik Metin Benzerlik Benchmark (. Cer ve diğerleri, 2017) haber başlıkları, video ve resim başlıkları ve doğal dil çıkarsama verilerinden çıkarılan cümle çiftleri topluluğudur. Her çift, 1'den 5'e kadar bir benzerlik puanı ile insan açıklamalıdır.

  • Anasayfa: http://ixa2.si.ehu.es/stswiki/index.php/STSbenchmark

  • İndirme boyutu: 784.05 KiB

  • Veri kümesi boyutu: 1.58 MiB

  • Splits:

Bölmek Örnekler
'test' 1.379
'train' 5.749
'validation' 1500
  • Özellikler:
FeaturesDict({
    'idx': tf.int32,
    'label': tf.float32,
    'sentence1': Text(shape=(), dtype=tf.string),
    'sentence2': Text(shape=(), dtype=tf.string),
})
  • Citation:
@article{cer2017semeval,
  title={Semeval-2017 task 1: Semantic textual similarity-multilingual and cross-lingual focused evaluation},
  author={Cer, Daniel and Diab, Mona and Agirre, Eneko and Lopez-Gazpio, Inigo and Specia, Lucia},
  journal={arXiv preprint arXiv:1708.00055},
  year={2017}
}
@inproceedings{wang2019glue,
  title={ {GLUE}: A Multi-Task Benchmark and Analysis Platform for Natural Language Understanding},
  author={Wang, Alex and Singh, Amanpreet and Michael, Julian and Hill, Felix and Levy, Omer and Bowman, Samuel R.},
  note={In the Proceedings of ICLR.},
  year={2019}
}

Note that each GLUE dataset has its own citation. Please see the source to see
the correct citation for each contained dataset.

tutkal/mnli

  • Yapılandırma tanımı: Çoklu Tür Doğal Dil Çıkarım Corpus metinsel Vasiyetiniz ek açıklamalarla cümle çiftleri crowdsourced topluluğudur. Bir öncül cümlesi ve bir hipotez cümlesi verildiğinde, görev, öncülün hipotezi (gerektirmeyi) içerip içermediğini, hipotezle çelişip çelişmediğini (çelişki) veya hiçbirinin (nötr) olup olmadığını tahmin etmektir. Öncül cümleler, yazıya dökülmüş konuşma, kurgu ve hükümet raporları dahil olmak üzere on farklı kaynaktan toplanmıştır. Yazarlardan özel etiketler aldığımız standart test setini kullanıyoruz ve hem eşleşen (alan içi) hem de uyumsuz (alanlar arası) bölümünde değerlendiriyoruz. Ayrıca SNLI corpus'u 550k yardımcı eğitim verisi örneği olarak kullanıyor ve tavsiye ediyoruz.

  • Anasayfa: http://www.nyu.edu/projects/bowman/multinli/

  • İndirme boyutu: 298.29 MiB

  • Veri kümesi boyutu: 100.56 MiB

  • Splits:

Bölmek Örnekler
'test_matched' 9,796
'test_mismatched' 9.847
'train' 392.702
'validation_matched' 9.815
'validation_mismatched' 9.832
  • Özellikler:
FeaturesDict({
    'hypothesis': Text(shape=(), dtype=tf.string),
    'idx': tf.int32,
    'label': ClassLabel(shape=(), dtype=tf.int64, num_classes=3),
    'premise': Text(shape=(), dtype=tf.string),
})
  • Citation:
@InProceedings{N18-1101,
  author = "Williams, Adina
            and Nangia, Nikita
            and Bowman, Samuel",
  title = "A Broad-Coverage Challenge Corpus for
           Sentence Understanding through Inference",
  booktitle = "Proceedings of the 2018 Conference of
               the North American Chapter of the
               Association for Computational Linguistics:
               Human Language Technologies, Volume 1 (Long
               Papers)",
  year = "2018",
  publisher = "Association for Computational Linguistics",
  pages = "1112--1122",
  location = "New Orleans, Louisiana",
  url = "http://aclweb.org/anthology/N18-1101"
}
@article{bowman2015large,
  title={A large annotated corpus for learning natural language inference},
  author={Bowman, Samuel R and Angeli, Gabor and Potts, Christopher and Manning, Christopher D},
  journal={arXiv preprint arXiv:1508.05326},
  year={2015}
}
@inproceedings{wang2019glue,
  title={ {GLUE}: A Multi-Task Benchmark and Analysis Platform for Natural Language Understanding},
  author={Wang, Alex and Singh, Amanpreet and Michael, Julian and Hill, Felix and Levy, Omer and Bowman, Samuel R.},
  note={In the Proceedings of ICLR.},
  year={2019}
}

Note that each GLUE dataset has its own citation. Please see the source to see
the correct citation for each contained dataset.

tutkal/mnli_mismatched

  • Yapılandırma açıklaması: MNLI eşleşmeyen doğrulama ve test böler. Ek bilgi için "mnli" BuilderConfig'e bakın.

  • Anasayfa: http://www.nyu.edu/projects/bowman/multinli/

  • İndirme boyutu: 298.29 MiB

  • Veri kümesi boyutu: 4.79 MiB

  • Splits:

Bölmek Örnekler
'test' 9.847
'validation' 9.832
  • Özellikler:
FeaturesDict({
    'hypothesis': Text(shape=(), dtype=tf.string),
    'idx': tf.int32,
    'label': ClassLabel(shape=(), dtype=tf.int64, num_classes=3),
    'premise': Text(shape=(), dtype=tf.string),
})
  • Citation:
@InProceedings{N18-1101,
  author = "Williams, Adina
            and Nangia, Nikita
            and Bowman, Samuel",
  title = "A Broad-Coverage Challenge Corpus for
           Sentence Understanding through Inference",
  booktitle = "Proceedings of the 2018 Conference of
               the North American Chapter of the
               Association for Computational Linguistics:
               Human Language Technologies, Volume 1 (Long
               Papers)",
  year = "2018",
  publisher = "Association for Computational Linguistics",
  pages = "1112--1122",
  location = "New Orleans, Louisiana",
  url = "http://aclweb.org/anthology/N18-1101"
}
@article{bowman2015large,
  title={A large annotated corpus for learning natural language inference},
  author={Bowman, Samuel R and Angeli, Gabor and Potts, Christopher and Manning, Christopher D},
  journal={arXiv preprint arXiv:1508.05326},
  year={2015}
}
@inproceedings{wang2019glue,
  title={ {GLUE}: A Multi-Task Benchmark and Analysis Platform for Natural Language Understanding},
  author={Wang, Alex and Singh, Amanpreet and Michael, Julian and Hill, Felix and Levy, Omer and Bowman, Samuel R.},
  note={In the Proceedings of ICLR.},
  year={2019}
}

Note that each GLUE dataset has its own citation. Please see the source to see
the correct citation for each contained dataset.

tutkal/mnli_matched

  • Yapılandırma açıklaması: MNLI eşleşmiş doğrulama ve test böler. Ek bilgi için "mnli" BuilderConfig'e bakın.

  • Anasayfa: http://www.nyu.edu/projects/bowman/multinli/

  • İndirme boyutu: 298.29 MiB

  • Veri kümesi boyutu: 4.58 MiB

  • Splits:

Bölmek Örnekler
'test' 9,796
'validation' 9.815
  • Özellikler:
FeaturesDict({
    'hypothesis': Text(shape=(), dtype=tf.string),
    'idx': tf.int32,
    'label': ClassLabel(shape=(), dtype=tf.int64, num_classes=3),
    'premise': Text(shape=(), dtype=tf.string),
})
  • Citation:
@InProceedings{N18-1101,
  author = "Williams, Adina
            and Nangia, Nikita
            and Bowman, Samuel",
  title = "A Broad-Coverage Challenge Corpus for
           Sentence Understanding through Inference",
  booktitle = "Proceedings of the 2018 Conference of
               the North American Chapter of the
               Association for Computational Linguistics:
               Human Language Technologies, Volume 1 (Long
               Papers)",
  year = "2018",
  publisher = "Association for Computational Linguistics",
  pages = "1112--1122",
  location = "New Orleans, Louisiana",
  url = "http://aclweb.org/anthology/N18-1101"
}
@article{bowman2015large,
  title={A large annotated corpus for learning natural language inference},
  author={Bowman, Samuel R and Angeli, Gabor and Potts, Christopher and Manning, Christopher D},
  journal={arXiv preprint arXiv:1508.05326},
  year={2015}
}
@inproceedings{wang2019glue,
  title={ {GLUE}: A Multi-Task Benchmark and Analysis Platform for Natural Language Understanding},
  author={Wang, Alex and Singh, Amanpreet and Michael, Julian and Hill, Felix and Levy, Omer and Bowman, Samuel R.},
  note={In the Proceedings of ICLR.},
  year={2019}
}

Note that each GLUE dataset has its own citation. Please see the source to see
the correct citation for each contained dataset.

tutkal/qnli

  • Yapılandırma tanımı: Stanford Soru Dataset cevaplama (Wikipedia'dan çizilmiş) paragraftaki cümle bir (bir annotator tarafından yazılmış) karşılık gelen sorunun cevabını içeren soru-paragraf çiftleri oluşan bir soru yanıtlama veri kümesi olduğunu. Her soru ve karşılık gelen bağlamdaki her cümle arasında bir çift oluşturarak ve soru ile bağlam cümlesi arasında düşük sözcüksel örtüşme olan çiftleri filtreleyerek görevi cümle çifti sınıflandırmasına dönüştürüyoruz. Görev, bağlam cümlesinin sorunun cevabını içerip içermediğini belirlemektir. Orijinal görevin bu değiştirilmiş versiyonu, modelin kesin cevabı seçmesi gerekliliğini ortadan kaldırır, ancak aynı zamanda cevabın girdide her zaman mevcut olduğuna ve sözcüksel örtüşmenin güvenilir bir ipucu olduğuna dair basitleştirici varsayımları da ortadan kaldırır.

  • Anasayfa: https://rajpurkar.github.io/SQuAD-explorer/

  • İndirme boyutu: 10.14 MiB

  • Veri kümesi boyutu: 32.99 MiB

  • Splits:

Bölmek Örnekler
'test' 5.463
'train' 104.743
'validation' 5.463
  • Özellikler:
FeaturesDict({
    'idx': tf.int32,
    'label': ClassLabel(shape=(), dtype=tf.int64, num_classes=2),
    'question': Text(shape=(), dtype=tf.string),
    'sentence': Text(shape=(), dtype=tf.string),
})
  • Citation:
@article{rajpurkar2016squad,
  title={Squad: 100,000+ questions for machine comprehension of text},
  author={Rajpurkar, Pranav and Zhang, Jian and Lopyrev, Konstantin and Liang, Percy},
  journal={arXiv preprint arXiv:1606.05250},
  year={2016}
}
@inproceedings{wang2019glue,
  title={ {GLUE}: A Multi-Task Benchmark and Analysis Platform for Natural Language Understanding},
  author={Wang, Alex and Singh, Amanpreet and Michael, Julian and Hill, Felix and Levy, Omer and Bowman, Samuel R.},
  note={In the Proceedings of ICLR.},
  year={2019}
}

Note that each GLUE dataset has its own citation. Please see the source to see
the correct citation for each contained dataset.

tutkal/rte

  • Yapılandırma tanımı: Tanıma Metin Vasiyetiniz (RTE) veri kümeleri yıllık metinsel Vasiyetiniz zorlukların bir dizi geliyor. RTE1 (Dagan ve diğerleri, 2006), RTE2 (Bar Haim ve diğerleri, 2006), RTE3 (Giampiccolo ve diğerleri, 2007) ve RTE5'ten (Bentivogli ve diğerleri, 2009) gelen verileri birleştiriyoruz.4 Örnekler şunlardır: haberlere ve Wikipedia metnine dayalı olarak oluşturulmuştur. Tüm veri kümelerini iki sınıflı bir bölmeye dönüştürürüz; burada üç sınıflı veri kümeleri için, tutarlılık için tarafsızlığı ve çelişkiyi zorunlu kılmamaya daraltırız.

  • Anasayfa: https://aclweb.org/aclwiki/Recognizing_Textual_Entailment

  • İndirme boyutu: 680.81 KiB

  • Veri kümesi boyutu: 2.15 MiB

  • Splits:

Bölmek Örnekler
'test' 3.000
'train' 2.490
'validation' 277
  • Özellikler:
FeaturesDict({
    'idx': tf.int32,
    'label': ClassLabel(shape=(), dtype=tf.int64, num_classes=2),
    'sentence1': Text(shape=(), dtype=tf.string),
    'sentence2': Text(shape=(), dtype=tf.string),
})
  • Citation:
@inproceedings{dagan2005pascal,
  title={The PASCAL recognising textual entailment challenge},
  author={Dagan, Ido and Glickman, Oren and Magnini, Bernardo},
  booktitle={Machine Learning Challenges Workshop},
  pages={177--190},
  year={2005},
  organization={Springer}
}
@inproceedings{bar2006second,
  title={The second pascal recognising textual entailment challenge},
  author={Bar-Haim, Roy and Dagan, Ido and Dolan, Bill and Ferro, Lisa and Giampiccolo, Danilo and Magnini, Bernardo and Szpektor, Idan},
  booktitle={Proceedings of the second PASCAL challenges workshop on recognising textual entailment},
  volume={6},
  number={1},
  pages={6--4},
  year={2006},
  organization={Venice}
}
@inproceedings{giampiccolo2007third,
  title={The third pascal recognizing textual entailment challenge},
  author={Giampiccolo, Danilo and Magnini, Bernardo and Dagan, Ido and Dolan, Bill},
  booktitle={Proceedings of the ACL-PASCAL workshop on textual entailment and paraphrasing},
  pages={1--9},
  year={2007},
  organization={Association for Computational Linguistics}
}
@inproceedings{bentivogli2009fifth,
  title={The Fifth PASCAL Recognizing Textual Entailment Challenge.},
  author={Bentivogli, Luisa and Clark, Peter and Dagan, Ido and Giampiccolo, Danilo},
  booktitle={TAC},
  year={2009}
}
@inproceedings{wang2019glue,
  title={ {GLUE}: A Multi-Task Benchmark and Analysis Platform for Natural Language Understanding},
  author={Wang, Alex and Singh, Amanpreet and Michael, Julian and Hill, Felix and Levy, Omer and Bowman, Samuel R.},
  note={In the Proceedings of ICLR.},
  year={2019}
}

Note that each GLUE dataset has its own citation. Please see the source to see
the correct citation for each contained dataset.

tutkal/wnli

  • Yapılandırma tanımı: Winograd Şema Mücadelesi (. Lévesque ve diğerleri, 2011) bir sistem zamirden bir cümle okumak ve seçimler listeden o zamirinin referent seçmelisiniz olduğu bir okuduğunu anlama görevdir. Örnekler, basit istatistiksel yöntemleri ortadan kaldırmak için manuel olarak oluşturulmuştur: Her biri, cümle içindeki tek bir kelime veya tümcecik tarafından sağlanan bağlamsal bilgilere bağlıdır. Problemi cümle çifti sınıflandırmasına dönüştürmek için, muğlak zamiri her olası göndergeyle değiştirerek cümle çiftleri oluşturuyoruz. Görev, zamiri değiştirilen cümlenin orijinal cümle tarafından içerilip içerilmeyeceğini tahmin etmektir. Orijinal külliyatın yazarları tarafından özel olarak paylaşılan kurgu kitaplarından türetilen yeni örneklerden oluşan küçük bir değerlendirme seti kullanıyoruz. Dahil edilen eğitim seti iki sınıf arasında dengelenirken, test seti aralarında dengesizdir (%65 zorunlu değil). Ayrıca, bir veri tuhaflığı nedeniyle, geliştirme seti çekişmeli: hipotezler bazen eğitim ve geliştirme örnekleri arasında paylaşılır, bu nedenle bir model eğitim örneklerini ezberlerse, ilgili geliştirme seti örneğinde yanlış etiketi tahmin edeceklerdir. QNLI'de olduğu gibi, her örnek ayrı ayrı değerlendirilir, bu nedenle bir modelin bu görevdeki puanı ile dönüştürülmemiş orijinal görevdeki puanı arasında sistematik bir uyum yoktur. Dönüştürülen veri kümesine WNLI (Winograd NLI) diyoruz.

  • Anasayfa: https://cs.nyu.edu/faculty/davise/papers/WinogradSchemas/WS.html

  • İndirme boyutu: 28.32 KiB

  • Veri kümesi boyutu: 198.88 KiB

  • Splits:

Bölmek Örnekler
'test' 146
'train' 635
'validation' 71
  • Özellikler:
FeaturesDict({
    'idx': tf.int32,
    'label': ClassLabel(shape=(), dtype=tf.int64, num_classes=2),
    'sentence1': Text(shape=(), dtype=tf.string),
    'sentence2': Text(shape=(), dtype=tf.string),
})
  • Citation:
@inproceedings{levesque2012winograd,
  title={The winograd schema challenge},
  author={Levesque, Hector and Davis, Ernest and Morgenstern, Leora},
  booktitle={Thirteenth International Conference on the Principles of Knowledge Representation and Reasoning},
  year={2012}
}
@inproceedings{wang2019glue,
  title={ {GLUE}: A Multi-Task Benchmark and Analysis Platform for Natural Language Understanding},
  author={Wang, Alex and Singh, Amanpreet and Michael, Julian and Hill, Felix and Levy, Omer and Bowman, Samuel R.},
  note={In the Proceedings of ICLR.},
  year={2019}
}

Note that each GLUE dataset has its own citation. Please see the source to see
the correct citation for each contained dataset.

tutkal/balta

  • Yapılandırma açıklaması: dil fenomenlerin geniş bir sistem performansı ayrıntılı bir analiz için bir el ile seçilmiş bir değerlendirme veri seti. Bu veri seti, Doğal Dil Çıkarımı (NLI) problemleriyle cümle anlamayı değerlendirir. Bu veri kümesi için tahminler üretmek için MulitNLI üzerinde eğitilmiş bir model kullanın.

  • Anasayfa: https://gluebenchmark.com/diagnostics

  • İndirme boyutu: 217.05 KiB

  • Veri kümesi boyutu: 299.16 KiB

  • Splits:

Bölmek Örnekler
'test' 1,104
  • Özellikler:
FeaturesDict({
    'hypothesis': Text(shape=(), dtype=tf.string),
    'idx': tf.int32,
    'label': ClassLabel(shape=(), dtype=tf.int64, num_classes=3),
    'premise': Text(shape=(), dtype=tf.string),
})
  • Citation:
@inproceedings{wang2019glue,
  title={ {GLUE}: A Multi-Task Benchmark and Analysis Platform for Natural Language Understanding},
  author={Wang, Alex and Singh, Amanpreet and Michael, Julian and Hill, Felix and Levy, Omer and Bowman, Samuel R.},
  note={In the Proceedings of ICLR.},
  year={2019}
}

Note that each GLUE dataset has its own citation. Please see the source to see
the correct citation for each contained dataset.