امروز برای رویداد محلی TensorFlow خود در همه جا پاسخ دهید!
این صفحه به‌وسیله ‏Cloud Translation API‏ ترجمه شده است.
Switch to English

چسب

  • توضیحات :

GLUE ، معیار ارزیابی عمومی درک زبان ( https://gluebenchmark.com/ ) مجموعه ای از منابع برای آموزش ، ارزیابی و تجزیه و تحلیل سیستم های درک زبان طبیعی است.

چسب / کولا (پیکربندی پیش فرض)

  • شرح پیکربندی : مجموعه مقبولیتهای زبانی متشکل از قضاوتهای مقبولیت انگلیسی است كه از كتابها و مقالات ژورنالی ها در مورد نظریه زبان شناسی گرفته شده است. هر مثال دنباله ای از کلمات است که با یک جمله دستوری انگلیسی حاشیه نویسی می شود.

  • صفحه اصلی : https://nyu-mll.github.io/CoLA/

  • اندازه 368.14 KiB : 368.14 KiB

  • تقسیم :

شکاف مثال ها
'test' 1063
'train' 8551
'validation' 1043
  • ویژگی ها :
FeaturesDict({
    'idx': tf.int32,
    'label': ClassLabel(shape=(), dtype=tf.int64, num_classes=2),
    'sentence': Text(shape=(), dtype=tf.string),
})
  • نقل قول :
@article{warstadt2018neural,
  title={Neural Network Acceptability Judgments},
  author={Warstadt, Alex and Singh, Amanpreet and Bowman, Samuel R},
  journal={arXiv preprint arXiv:1805.12471},
  year={2018}
}
@inproceedings{wang2019glue,
  title={ {GLUE}: A Multi-Task Benchmark and Analysis Platform for Natural Language Understanding},
  author={Wang, Alex and Singh, Amanpreet and Michael, Julian and Hill, Felix and Levy, Omer and Bowman, Samuel R.},
  note={In the Proceedings of ICLR.},
  year={2019}
}

Note that each GLUE dataset has its own citation. Please see the source to see
the correct citation for each contained dataset.

چسب / sst2

  • شرح پیکربندی : Treebank Sentiment Stanford شامل جملاتی از نقد فیلم ها و حاشیه نویسی های انسانی درباره احساسات آنها است. وظیفه پیش بینی احساس یک جمله معین است. ما از تقسیم طبقاتی دو طرفه (مثبت / منفی) استفاده می کنیم و فقط از برچسب های سطح جمله استفاده می کنیم.

  • صفحه اصلی : https://nlp.stanford.edu/sentiment/index.html

  • اندازه بارگیری : 7.09 MiB

  • تقسیم :

شکاف مثال ها
'test' 1821
'train' 67،349
'validation' 872
  • ویژگی ها :
FeaturesDict({
    'idx': tf.int32,
    'label': ClassLabel(shape=(), dtype=tf.int64, num_classes=2),
    'sentence': Text(shape=(), dtype=tf.string),
})
  • نقل قول :
@inproceedings{socher2013recursive,
  title={Recursive deep models for semantic compositionality over a sentiment treebank},
  author={Socher, Richard and Perelygin, Alex and Wu, Jean and Chuang, Jason and Manning, Christopher D and Ng, Andrew and Potts, Christopher},
  booktitle={Proceedings of the 2013 conference on empirical methods in natural language processing},
  pages={1631--1642},
  year={2013}
}
@inproceedings{wang2019glue,
  title={ {GLUE}: A Multi-Task Benchmark and Analysis Platform for Natural Language Understanding},
  author={Wang, Alex and Singh, Amanpreet and Michael, Julian and Hill, Felix and Levy, Omer and Bowman, Samuel R.},
  note={In the Proceedings of ICLR.},
  year={2019}
}

Note that each GLUE dataset has its own citation. Please see the source to see
the correct citation for each contained dataset.

چسب / mrpc

  • شرح پیکربندی : Microsoft Research Paraphrase Corpus (Dolan & Brockett، 2005) مجموعه ای از جفت جمله ها است که به طور خودکار از منابع خبری آنلاین استخراج می شود ، با حاشیه نویسی انسانی برای اینکه معادلات جملات این جفت از لحاظ معنایی برابر است یا خیر.

  • صفحه اصلی : https://www.microsoft.com/en-us/download/details.aspx؟id=52398

  • اندازه بارگیری : 1.43 MiB

  • تقسیم :

شکاف مثال ها
'test' 1،725
'train' 3،668
'validation' 408
  • ویژگی ها :
FeaturesDict({
    'idx': tf.int32,
    'label': ClassLabel(shape=(), dtype=tf.int64, num_classes=2),
    'sentence1': Text(shape=(), dtype=tf.string),
    'sentence2': Text(shape=(), dtype=tf.string),
})
  • نقل قول :
@inproceedings{dolan2005automatically,
  title={Automatically constructing a corpus of sentential paraphrases},
  author={Dolan, William B and Brockett, Chris},
  booktitle={Proceedings of the Third International Workshop on Paraphrasing (IWP2005)},
  year={2005}
}
@inproceedings{wang2019glue,
  title={ {GLUE}: A Multi-Task Benchmark and Analysis Platform for Natural Language Understanding},
  author={Wang, Alex and Singh, Amanpreet and Michael, Julian and Hill, Felix and Levy, Omer and Bowman, Samuel R.},
  note={In the Proceedings of ICLR.},
  year={2019}
}

Note that each GLUE dataset has its own citation. Please see the source to see
the correct citation for each contained dataset.

چسب / qqp

  • شرح پیکربندی : مجموعه داده Quora Question Pairs2 مجموعه ای از جفت س questionالات از وب سایت پاسخگوی س questionال انجمن Quora است. وظیفه این است که تعیین کنید آیا یک جفت سوال از نظر معنایی معادل هستند یا خیر.

  • صفحه اصلی : https://data.quora.com/First-Quora-Dataset-Release-Question-Pair

  • حجم دانلود : 57.73 MiB

  • تقسیم :

شکاف مثال ها
'test' 390،965
'train' 363،849
'validation' 40430
  • ویژگی ها :
FeaturesDict({
    'idx': tf.int32,
    'label': ClassLabel(shape=(), dtype=tf.int64, num_classes=2),
    'question1': Text(shape=(), dtype=tf.string),
    'question2': Text(shape=(), dtype=tf.string),
})
  • نقل قول :
@online{WinNT,
  author = {Iyer, Shankar and Dandekar, Nikhil and Csernai, Kornel},
  title = {First Quora Dataset Release: Question Pairs},
  year = 2017,
  url = {https://data.quora.com/First-Quora-Dataset-Release-Question-Pairs},
  urldate = {2019-04-03}
}
@inproceedings{wang2019glue,
  title={ {GLUE}: A Multi-Task Benchmark and Analysis Platform for Natural Language Understanding},
  author={Wang, Alex and Singh, Amanpreet and Michael, Julian and Hill, Felix and Levy, Omer and Bowman, Samuel R.},
  note={In the Proceedings of ICLR.},
  year={2019}
}

Note that each GLUE dataset has its own citation. Please see the source to see
the correct citation for each contained dataset.

چسب / stsb

  • شرح پیکربندی : معیار تشابه متنی معنایی (Cer و همکاران ، 2017) مجموعه ای از جفت جملات است که از عناوین خبری ، زیرنویس های ویدئویی و تصویری و داده های استنباط زبان طبیعی گرفته شده است. هر زوج با نمره شباهت از 1 تا 5 حاشیه نویسی شده توسط انسان است.

  • صفحه اصلی : http://ixa2.si.ehu.es/stswiki/index.php/STSbenchmark

  • حجم 784.05 KiB : 784.05 KiB

  • تقسیم :

شکاف مثال ها
'test' 1،379
'train' 5،749
'validation' 1500
  • ویژگی ها :
FeaturesDict({
    'idx': tf.int32,
    'label': tf.float32,
    'sentence1': Text(shape=(), dtype=tf.string),
    'sentence2': Text(shape=(), dtype=tf.string),
})
  • نقل قول :
@article{cer2017semeval,
  title={Semeval-2017 task 1: Semantic textual similarity-multilingual and cross-lingual focused evaluation},
  author={Cer, Daniel and Diab, Mona and Agirre, Eneko and Lopez-Gazpio, Inigo and Specia, Lucia},
  journal={arXiv preprint arXiv:1708.00055},
  year={2017}
}
@inproceedings{wang2019glue,
  title={ {GLUE}: A Multi-Task Benchmark and Analysis Platform for Natural Language Understanding},
  author={Wang, Alex and Singh, Amanpreet and Michael, Julian and Hill, Felix and Levy, Omer and Bowman, Samuel R.},
  note={In the Proceedings of ICLR.},
  year={2019}
}

Note that each GLUE dataset has its own citation. Please see the source to see
the correct citation for each contained dataset.

چسب / mnli

  • توصیف پیکربندی : مجموعه استنتاج زبان طبیعی چند ژانر یک مجموعه جفت جمعی با حاشیه نویسی متنی است. با توجه به یک جمله مقدماتی و یک جمله فرضیه ، وظیفه این است که پیش بینی کنیم که آیا این فرضیه شامل فرضیه (مستلزم) است ، با فرضیه (تناقض) متناقض است یا هیچکدام (خنثی) است. جملات مقدماتی از ده منبع مختلف جمع آوری شده است ، از جمله سخنرانی رونویسی ، داستان و گزارش های دولتی. ما از مجموعه آزمون استاندارد استفاده می کنیم ، که برای آن برچسب های خصوصی از نویسندگان به دست آوردیم و هر دو بخش همسان (در دامنه) و عدم تطابق (دامنه عرضی) را ارزیابی می کنیم. ما همچنین از مجموعه SNLI به عنوان 550k نمونه داده های آموزش کمکی استفاده و توصیه می کنیم.

  • صفحه اصلی : http://www.nyu.edu/projects/bowman/multinli/

  • اندازه 298.29 MiB : 298.29 MiB

  • تقسیم :

شکاف مثال ها
'test_matched' 9،796
'test_mismatched' 9،847
'train' 392702
'validation_matched' 9،815
'validation_mismatched' 9،832
  • ویژگی ها :
FeaturesDict({
    'hypothesis': Text(shape=(), dtype=tf.string),
    'idx': tf.int32,
    'label': ClassLabel(shape=(), dtype=tf.int64, num_classes=3),
    'premise': Text(shape=(), dtype=tf.string),
})
  • نقل قول :
@InProceedings{N18-1101,
  author = "Williams, Adina
            and Nangia, Nikita
            and Bowman, Samuel",
  title = "A Broad-Coverage Challenge Corpus for
           Sentence Understanding through Inference",
  booktitle = "Proceedings of the 2018 Conference of
               the North American Chapter of the
               Association for Computational Linguistics:
               Human Language Technologies, Volume 1 (Long
               Papers)",
  year = "2018",
  publisher = "Association for Computational Linguistics",
  pages = "1112--1122",
  location = "New Orleans, Louisiana",
  url = "http://aclweb.org/anthology/N18-1101"
}
@article{bowman2015large,
  title={A large annotated corpus for learning natural language inference},
  author={Bowman, Samuel R and Angeli, Gabor and Potts, Christopher and Manning, Christopher D},
  journal={arXiv preprint arXiv:1508.05326},
  year={2015}
}
@inproceedings{wang2019glue,
  title={ {GLUE}: A Multi-Task Benchmark and Analysis Platform for Natural Language Understanding},
  author={Wang, Alex and Singh, Amanpreet and Michael, Julian and Hill, Felix and Levy, Omer and Bowman, Samuel R.},
  note={In the Proceedings of ICLR.},
  year={2019}
}

Note that each GLUE dataset has its own citation. Please see the source to see
the correct citation for each contained dataset.

چسب / mnli_ ناسازگار

  • توضیحات پیکربندی : اعتبار سنجی و تقسیم آزمون ناسازگار از MNLI. برای اطلاعات بیشتر به BuilderConfig "mnli" مراجعه کنید.

  • صفحه اصلی : http://www.nyu.edu/projects/bowman/multinli/

  • اندازه 298.29 MiB : 298.29 MiB

  • تقسیم :

شکاف مثال ها
'test' 9،847
'validation' 9،832
  • ویژگی ها :
FeaturesDict({
    'hypothesis': Text(shape=(), dtype=tf.string),
    'idx': tf.int32,
    'label': ClassLabel(shape=(), dtype=tf.int64, num_classes=3),
    'premise': Text(shape=(), dtype=tf.string),
})
  • نقل قول :
@InProceedings{N18-1101,
  author = "Williams, Adina
            and Nangia, Nikita
            and Bowman, Samuel",
  title = "A Broad-Coverage Challenge Corpus for
           Sentence Understanding through Inference",
  booktitle = "Proceedings of the 2018 Conference of
               the North American Chapter of the
               Association for Computational Linguistics:
               Human Language Technologies, Volume 1 (Long
               Papers)",
  year = "2018",
  publisher = "Association for Computational Linguistics",
  pages = "1112--1122",
  location = "New Orleans, Louisiana",
  url = "http://aclweb.org/anthology/N18-1101"
}
@article{bowman2015large,
  title={A large annotated corpus for learning natural language inference},
  author={Bowman, Samuel R and Angeli, Gabor and Potts, Christopher and Manning, Christopher D},
  journal={arXiv preprint arXiv:1508.05326},
  year={2015}
}
@inproceedings{wang2019glue,
  title={ {GLUE}: A Multi-Task Benchmark and Analysis Platform for Natural Language Understanding},
  author={Wang, Alex and Singh, Amanpreet and Michael, Julian and Hill, Felix and Levy, Omer and Bowman, Samuel R.},
  note={In the Proceedings of ICLR.},
  year={2019}
}

Note that each GLUE dataset has its own citation. Please see the source to see
the correct citation for each contained dataset.

چسب / mnli_ همسان

  • توضیحات پیکربندی : اعتبار سنجی و تقسیم آزمون از MNLI. برای اطلاعات بیشتر به BuilderConfig "mnli" مراجعه کنید.

  • صفحه اصلی : http://www.nyu.edu/projects/bowman/multinli/

  • اندازه 298.29 MiB : 298.29 MiB

  • تقسیم :

شکاف مثال ها
'test' 9،796
'validation' 9،815
  • ویژگی ها :
FeaturesDict({
    'hypothesis': Text(shape=(), dtype=tf.string),
    'idx': tf.int32,
    'label': ClassLabel(shape=(), dtype=tf.int64, num_classes=3),
    'premise': Text(shape=(), dtype=tf.string),
})
  • نقل قول :
@InProceedings{N18-1101,
  author = "Williams, Adina
            and Nangia, Nikita
            and Bowman, Samuel",
  title = "A Broad-Coverage Challenge Corpus for
           Sentence Understanding through Inference",
  booktitle = "Proceedings of the 2018 Conference of
               the North American Chapter of the
               Association for Computational Linguistics:
               Human Language Technologies, Volume 1 (Long
               Papers)",
  year = "2018",
  publisher = "Association for Computational Linguistics",
  pages = "1112--1122",
  location = "New Orleans, Louisiana",
  url = "http://aclweb.org/anthology/N18-1101"
}
@article{bowman2015large,
  title={A large annotated corpus for learning natural language inference},
  author={Bowman, Samuel R and Angeli, Gabor and Potts, Christopher and Manning, Christopher D},
  journal={arXiv preprint arXiv:1508.05326},
  year={2015}
}
@inproceedings{wang2019glue,
  title={ {GLUE}: A Multi-Task Benchmark and Analysis Platform for Natural Language Understanding},
  author={Wang, Alex and Singh, Amanpreet and Michael, Julian and Hill, Felix and Levy, Omer and Bowman, Samuel R.},
  note={In the Proceedings of ICLR.},
  year={2019}
}

Note that each GLUE dataset has its own citation. Please see the source to see
the correct citation for each contained dataset.

چسب / qnli

  • توصیف پیکربندی : مجموعه داده های پاسخ س Stanال استنفورد مجموعه داده پاسخگوی س consistingالات متشکل از جفتهای پاراگراف سوال است ، که در آن یکی از جملات پاراگراف (برگرفته از ویکی پدیا) حاوی پاسخ س correspondingال مربوطه است (که توسط حاشیه نویس نوشته شده است). ما با تشکیل یک جفت بین هر س andال و هر جمله در متن مربوطه ، و فیلتر کردن جفتهایی با همپوشانی لغوی کم بین س questionال و جمله متن ، کار را به طبقه بندی جفت جمله تبدیل می کنیم. وظیفه این است که تعیین کنیم آیا جمله متن شامل جواب سوال است. این نسخه اصلاح شده از کار اصلی ، الزامی را که مدل پاسخ دقیق را انتخاب می کند ، حذف می کند ، اما همچنین فرضهای ساده را که پاسخ همیشه در ورودی وجود دارد و همپوشانی واژگان نشانه قابل اعتمادی است ، حذف می کند.

  • صفحه اصلی : https://rajpurkar.github.io/SQuAD-explorer/

  • اندازه بارگیری : 10.14 MiB

  • تقسیم :

شکاف مثال ها
'test' 5463
'train' 104،743
'validation' 5463
  • ویژگی ها :
FeaturesDict({
    'idx': tf.int32,
    'label': ClassLabel(shape=(), dtype=tf.int64, num_classes=2),
    'question': Text(shape=(), dtype=tf.string),
    'sentence': Text(shape=(), dtype=tf.string),
})
  • نقل قول :
@article{rajpurkar2016squad,
  title={Squad: 100,000+ questions for machine comprehension of text},
  author={Rajpurkar, Pranav and Zhang, Jian and Lopyrev, Konstantin and Liang, Percy},
  journal={arXiv preprint arXiv:1606.05250},
  year={2016}
}
@inproceedings{wang2019glue,
  title={ {GLUE}: A Multi-Task Benchmark and Analysis Platform for Natural Language Understanding},
  author={Wang, Alex and Singh, Amanpreet and Michael, Julian and Hill, Felix and Levy, Omer and Bowman, Samuel R.},
  note={In the Proceedings of ICLR.},
  year={2019}
}

Note that each GLUE dataset has its own citation. Please see the source to see
the correct citation for each contained dataset.

چسب / RTE

  • توضیحات پیکربندی : مجموعه داده های Recognising Textail Entailment (RTE) از یک سری چالش های مربوط به متن متنی سالانه ناشی می شود. ما داده های RTE1 (Dagan و همکاران ، 2006) ، RTE2 (Bar Haim و همکاران ، 2006) ، RTE3 (Giampiccolo و همکاران ، 2007) و RTE5 (Bentivogli و همکاران ، 2009) را ترکیب می کنیم. 4 نمونه بر اساس اخبار و متن ویکی پدیا ساخته شده است. ما تمام مجموعه های داده را به یک تقسیم دو طبقه تبدیل می کنیم ، جایی که برای مجموعه داده های سه کلاس ، خنثی و تناقض را به هم می رسانیم ، برای سازگاری.

  • صفحه اصلی : https://aclweb.org/aclwiki/Recognising_Textual_Entailment

  • اندازه 680.81 KiB : 680.81 KiB

  • تقسیم :

شکاف مثال ها
'test' 3000
'train' 2،490
'validation' 277
  • ویژگی ها :
FeaturesDict({
    'idx': tf.int32,
    'label': ClassLabel(shape=(), dtype=tf.int64, num_classes=2),
    'sentence1': Text(shape=(), dtype=tf.string),
    'sentence2': Text(shape=(), dtype=tf.string),
})
  • نقل قول :
@inproceedings{dagan2005pascal,
  title={The PASCAL recognising textual entailment challenge},
  author={Dagan, Ido and Glickman, Oren and Magnini, Bernardo},
  booktitle={Machine Learning Challenges Workshop},
  pages={177--190},
  year={2005},
  organization={Springer}
}
@inproceedings{bar2006second,
  title={The second pascal recognising textual entailment challenge},
  author={Bar-Haim, Roy and Dagan, Ido and Dolan, Bill and Ferro, Lisa and Giampiccolo, Danilo and Magnini, Bernardo and Szpektor, Idan},
  booktitle={Proceedings of the second PASCAL challenges workshop on recognising textual entailment},
  volume={6},
  number={1},
  pages={6--4},
  year={2006},
  organization={Venice}
}
@inproceedings{giampiccolo2007third,
  title={The third pascal recognizing textual entailment challenge},
  author={Giampiccolo, Danilo and Magnini, Bernardo and Dagan, Ido and Dolan, Bill},
  booktitle={Proceedings of the ACL-PASCAL workshop on textual entailment and paraphrasing},
  pages={1--9},
  year={2007},
  organization={Association for Computational Linguistics}
}
@inproceedings{bentivogli2009fifth,
  title={The Fifth PASCAL Recognizing Textual Entailment Challenge.},
  author={Bentivogli, Luisa and Clark, Peter and Dagan, Ido and Giampiccolo, Danilo},
  booktitle={TAC},
  year={2009}
}
@inproceedings{wang2019glue,
  title={ {GLUE}: A Multi-Task Benchmark and Analysis Platform for Natural Language Understanding},
  author={Wang, Alex and Singh, Amanpreet and Michael, Julian and Hill, Felix and Levy, Omer and Bowman, Samuel R.},
  note={In the Proceedings of ICLR.},
  year={2019}
}

Note that each GLUE dataset has its own citation. Please see the source to see
the correct citation for each contained dataset.

چسب / wnli

  • شرح پیکربندی : چالش طرحواره Winograd (Levesque و همکاران ، 2011) یک کار درک مطلب است که در آن سیستم باید یک جمله را با ضمیر بخواند و مرجع آن ضمیر را از لیست گزینه ها انتخاب کند. مثالها بصورت دستی ساخته شده اند تا روشهای آماری ساده را خنثی کنند: هر یک از آنها به اطلاعات متنی ارائه شده توسط یک کلمه یا عبارت در جمله بستگی دارد. برای تبدیل مسئله به طبقه بندی جفت جمله ها ، با جایگزینی ضمیر مبهم با هر یک از مراجع ممکن ، جفت جمله ها را می سازیم. وظیفه این است که پیش بینی کنید آیا جمله ای که ضمیر جانشین آن درگیر جمله اصلی است یا خیر. ما از یک مجموعه ارزیابی کوچک متشکل از نمونه های جدید مشتق شده از کتاب های داستانی استفاده می کنیم که به طور خصوصی توسط نویسندگان مجموعه اصلی به اشتراک گذاشته شده است. در حالی که مجموعه آموزش شامل دو کلاس متعادل است ، مجموعه آزمون بین آنها تعادل ندارد (65٪ به دنبال ندارد). همچنین ، به دلیل یک کنجکاوی داده ها ، مجموعه توسعه خصمانه است: فرضیه ها گاهی بین مثالهای آموزش و توسعه به اشتراک گذاشته می شوند ، بنابراین اگر یک مدل نمونه های آموزش را بخاطر بسپارد ، آنها برچسب اشتباه را در مثال مجموعه توسعه مربوطه پیش بینی می کنند. همانند QNLI ، هر مثال به طور جداگانه ارزیابی می شود ، بنابراین بین نمره یک مدل در این کار و نمره آن در کار اصلی غیرقابل تبدیل ، یک مکاتب سیستماتیک وجود ندارد. ما مجموعه داده تبدیل شده را WNLI (Winograd NLI) می نامیم.

  • صفحه اصلی : https://cs.nyu.edu/faculty/davise/papers/WinogradSchemas/WS.html

  • اندازه بارگیری : 28.32 KiB

  • تقسیم :

شکاف مثال ها
'test' 146
'train' 635
'validation' 71
  • ویژگی ها :
FeaturesDict({
    'idx': tf.int32,
    'label': ClassLabel(shape=(), dtype=tf.int64, num_classes=2),
    'sentence1': Text(shape=(), dtype=tf.string),
    'sentence2': Text(shape=(), dtype=tf.string),
})
  • نقل قول :
@inproceedings{levesque2012winograd,
  title={The winograd schema challenge},
  author={Levesque, Hector and Davis, Ernest and Morgenstern, Leora},
  booktitle={Thirteenth International Conference on the Principles of Knowledge Representation and Reasoning},
  year={2012}
}
@inproceedings{wang2019glue,
  title={ {GLUE}: A Multi-Task Benchmark and Analysis Platform for Natural Language Understanding},
  author={Wang, Alex and Singh, Amanpreet and Michael, Julian and Hill, Felix and Levy, Omer and Bowman, Samuel R.},
  note={In the Proceedings of ICLR.},
  year={2019}
}

Note that each GLUE dataset has its own citation. Please see the source to see
the correct citation for each contained dataset.

چسب / تبر

  • توصیف پیکربندی : یک مجموعه داده ارزیابی دستی برای تجزیه و تحلیل ریز عملکرد سیستم در طیف گسترده ای از پدیده های زبانی ، تنظیم شده است. این مجموعه داده درک جمله را از طریق مشکلات استنباط زبان طبیعی (NLI) ارزیابی می کند. برای تولید پیش بینی های این مجموعه داده ، از مدلی آموزش دیده در MulitNLI استفاده کنید.

  • صفحه اصلی : https://gluebenchmark.com/diagnostics

  • حجم 217.05 KiB : 217.05 KiB

  • تقسیم :

شکاف مثال ها
'test' 1،104
  • ویژگی ها :
FeaturesDict({
    'hypothesis': Text(shape=(), dtype=tf.string),
    'idx': tf.int32,
    'label': ClassLabel(shape=(), dtype=tf.int64, num_classes=3),
    'premise': Text(shape=(), dtype=tf.string),
})
  • نقل قول :
@inproceedings{wang2019glue,
  title={ {GLUE}: A Multi-Task Benchmark and Analysis Platform for Natural Language Understanding},
  author={Wang, Alex and Singh, Amanpreet and Michael, Julian and Hill, Felix and Levy, Omer and Bowman, Samuel R.},
  note={In the Proceedings of ICLR.},
  year={2019}
}

Note that each GLUE dataset has its own citation. Please see the source to see
the correct citation for each contained dataset.