¡El Día de la Comunidad de ML es el 9 de noviembre! Únase a nosotros para recibir actualizaciones de TensorFlow, JAX, y más Más información

sala de redacción

  • Descripción:

NEWSROOM es un gran conjunto de datos para entrenar y evaluar sistemas de resumen. Contiene 1,3 millones de artículos y resúmenes escritos por autores y editores en las redacciones de 38 publicaciones importantes.

Las características del conjunto de datos incluyen: - texto: ingrese texto de noticias. - resumen: Resumen de la noticia. Y características adicionales: - título: título de la noticia. - url: url de la noticia. - fecha: fecha del artículo. - densidad: densidad extractiva. - cobertura: cobertura extractiva. - Compresión: relación de compresión. - densidad_bin: baja, media, alta. - cubrimiento_bin: extractivo, abstractivo. - compress_bin: bajo, medio, alto.

Este conjunto de datos se puede descargar a pedido. Descomprima todo el contenido "train.jsonl, dev.josnl, test.jsonl" en la carpeta tfds.

  • Inicio: https://summari.es

  • El código fuente: tfds.summarization.Newsroom

  • versiones:

    • 1.0.0 (por defecto): No hay notas de la versión.
  • Tamaño del paquete: Unknown size

  • Tamaño de conjunto de datos: Unknown size

  • Las instrucciones de descarga manual: Este conjunto de datos se requiere para descargar los datos de origen manualmente en download_config.manual_dir (por defecto ~/tensorflow_datasets/downloads/manual/ ):
    Usted debe descargar el conjunto de datos de https://summari.es/download/ La página web requiere registro. Después de la descarga, coloque los archivos dev.jsonl, test.jsonl y train.jsonl en manual_dir.

  • Auto-caché ( documentación ): Desconocido

  • Fraccionamientos:

Separar Ejemplos de
'test' 108,862
'train' 995,041
'validation' 108,837
  • características:
FeaturesDict({
    'compression': tf.float32,
    'compression_bin': Text(shape=(), dtype=tf.string),
    'coverage': tf.float32,
    'coverage_bin': Text(shape=(), dtype=tf.string),
    'date': Text(shape=(), dtype=tf.string),
    'density': tf.float32,
    'density_bin': Text(shape=(), dtype=tf.string),
    'summary': Text(shape=(), dtype=tf.string),
    'text': Text(shape=(), dtype=tf.string),
    'title': Text(shape=(), dtype=tf.string),
    'url': Text(shape=(), dtype=tf.string),
})
  • Cita:
@article{Grusky_2018,
   title={Newsroom: A Dataset of 1.3 Million Summaries with Diverse Extractive Strategies},
   url={http://dx.doi.org/10.18653/v1/n18-1065},
   DOI={10.18653/v1/n18-1065},
   journal={Proceedings of the 2018 Conference of the North American Chapter of
          the Association for Computational Linguistics: Human Language
          Technologies, Volume 1 (Long Papers)},
   publisher={Association for Computational Linguistics},
   author={Grusky, Max and Naaman, Mor and Artzi, Yoav},
   year={2018}
}