Ayuda a proteger la Gran Barrera de Coral con TensorFlow en Kaggle Únete Challenge

trec

  • Descripción:

El conjunto de datos de clasificación de preguntas de Text REtrieval Conference (TREC) contiene 5500 preguntas etiquetadas en el conjunto de entrenamiento y otras 500 para el conjunto de prueba. El conjunto de datos tiene 6 etiquetas, 47 etiquetas de nivel 2. La longitud promedio de cada oración es 10, el tamaño del vocabulario de 8700. Los datos se recopilan de cuatro fuentes: 4.500 preguntas en inglés publicadas por la USC (Hovy et al., 2001), alrededor de 500 preguntas construidas manualmente para unas pocas clases raras, 894 TREC 8 y TREC 9 preguntas, y también 500 preguntas de TREC 10 que sirve como conjunto de prueba.

Separar Ejemplos de
'test' 500
'train' 5.452
  • características:
FeaturesDict({
    'label-coarse': ClassLabel(shape=(), dtype=tf.int64, num_classes=6),
    'label-fine': ClassLabel(shape=(), dtype=tf.int64, num_classes=47),
    'text': Text(shape=(), dtype=tf.string),
})
  • Cita:
@inproceedings{li-roth-2002-learning,
    title = "Learning Question Classifiers",
    author = "Li, Xin  and
      Roth, Dan",
    booktitle = "{COLING} 2002: The 19th International Conference on Computational Linguistics",
    year = "2002",
    url = "https://www.aclweb.org/anthology/C02-1150",
}
@inproceedings{hovy-etal-2001-toward,
    title = "Toward Semantics-Based Answer Pinpointing",
    author = "Hovy, Eduard  and
      Gerber, Laurie  and
      Hermjakob, Ulf  and
      Lin, Chin-Yew  and
      Ravichandran, Deepak",
    booktitle = "Proceedings of the First International Conference on Human Language Technology Research",
    year = "2001",
    url = "https://www.aclweb.org/anthology/H01-1069",
}