Google I/O — это обертка! Наверстать упущенное в сеансах TensorFlow Просмотреть сеансы

squad_question_generation

  • Описание:

Генерация вопросов с использованием групповых наборов данных и разделения данных, описанных в статье «Нейронная генерация вопросов из текста: предварительное исследование» (Zhou et al, 2017).

  • Домашняя страница: https://github.com/magic282/NQG

  • Исходный код: tfds.text.squad_question_generation.SquadQuestionGeneration

  • Версии:

    • 1.0.0 : Первоначальная сборка с уникальными идентификаторами дружины ЧАС в каждом расколе, используя контекст прохождения уровня.

    • 2.0.0 ( по умолчанию): Соответствует первоначальный раскол (Zhou и др, 2017), допускает как sentence- и прохождение уровня контекстов и использует ответы от (Zhou и др, 2017 г.).

  • Скачать Размер: 62.52 MiB

  • Dataset Размер: 111.02 MiB

  • Авто-кэшируются ( документация ): Да

  • расколы:

Расколоть Примеры
'test' 8 964
'train' 86 635
'validation' 8 965
  • Особенности:
FeaturesDict({
    'answer': Text(shape=(), dtype=tf.string),
    'context_passage': Text(shape=(), dtype=tf.string),
    'context_sentence': Text(shape=(), dtype=tf.string),
    'question': Text(shape=(), dtype=tf.string),
})
  • Образец цитирования:
@article{zhou2017neural,
  title={Neural Question Generation from Text: A Preliminary Study},
  author={Zhou, Qingyu and Yang, Nan and Wei, Furu and Tan, Chuanqi and Bao, Hangbo and Zhou, Ming},
  journal={arXiv preprint arXiv:1704.01792},
  year={2017}
}
@article{2016arXiv160605250R,
       author = { {Rajpurkar}, Pranav and {Zhang}, Jian and {Lopyrev},
                 Konstantin and {Liang}, Percy},
        title = "{SQuAD: 100,000+ Questions for Machine Comprehension of Text}",
      journal = {arXiv e-prints},
         year = 2016,
          eid = {arXiv:1606.05250},
        pages = {arXiv:1606.05250},
archivePrefix = {arXiv},
       eprint = {1606.05250},
}