- תיאור :
קורפוס זה מכיל פוסטים מעובדים מראש ממערך הנתונים של Reddit. מערך הנתונים מורכב מ-3,848,330 פוסטים באורך ממוצע של 270 מילים לתוכן, ו-28 מילים לסיכום.
התכונות כוללות מחרוזות: מחבר, גוף, normalizedBody, תוכן, סיכום, subreddit, subreddit_id. תוכן משמש כמסמך וסיכום משמש כסיכום.
תיעוד נוסף : חקור על ניירות עם קוד
קוד מקור :
tfds.datasets.reddit.Builderגרסאות :
-
1.0.0(ברירת מחדל): אין הערות שחרור.
-
גודל הורדה :
2.93 GiBגודל מערך נתונים :
18.09 GiBשמירה אוטומטית במטמון ( תיעוד ): לא
פיצולים :
| לְפַצֵל | דוגמאות |
|---|---|
'train' | 3,848,330 |
- מבנה תכונה :
FeaturesDict({
'author': string,
'body': string,
'content': string,
'id': string,
'normalizedBody': string,
'subreddit': string,
'subreddit_id': string,
'summary': string,
})
- תיעוד תכונה :
| תכונה | מעמד | צוּרָה | Dtype | תיאור |
|---|---|---|---|---|
| FeaturesDict | ||||
| מְחַבֵּר | מוֹתֵחַ | חוּט | ||
| גוּף | מוֹתֵחַ | חוּט | ||
| תוֹכֶן | מוֹתֵחַ | חוּט | ||
| תְעוּדַת זֶהוּת | מוֹתֵחַ | חוּט | ||
| מנורמל גוף | מוֹתֵחַ | חוּט | ||
| subreddit | מוֹתֵחַ | חוּט | ||
| subreddit_id | מוֹתֵחַ | חוּט | ||
| סיכום | מוֹתֵחַ | חוּט |
מפתחות בפיקוח (ראה
as_superviseddoc ):('content', 'summary')איור ( tfds.show_examples ): לא נתמך.
דוגמאות ( tfds.as_dataframe ):
- ציטוט :
@inproceedings{volske-etal-2017-tl,
title = "{TL};{DR}: Mining {R}eddit to Learn Automatic Summarization",
author = {V{\"o}lske, Michael and
Potthast, Martin and
Syed, Shahbaz and
Stein, Benno},
booktitle = "Proceedings of the Workshop on New Frontiers in Summarization",
month = sep,
year = "2017",
address = "Copenhagen, Denmark",
publisher = "Association for Computational Linguistics",
url = "https://www.aclweb.org/anthology/W17-4508",
doi = "10.18653/v1/W17-4508",
pages = "59--63",
abstract = "Recent advances in automatic text summarization have used deep neural networks to generate high-quality abstractive summaries, but the performance of these models strongly depends on large amounts of suitable training data. We propose a new method for mining social media for author-provided summaries, taking advantage of the common practice of appending a {``}TL;DR{''} to long posts. A case study using a large Reddit crawl yields the Webis-TLDR-17 dataset, complementing existing corpora primarily from the news genre. Our technique is likely applicable to other social media sites and general web crawls.",
}