- Описание :
Этот корпус содержит предварительно обработанные сообщения из набора данных Reddit. Набор данных состоит из 3 848 330 сообщений со средней длиной 270 слов для контента и 28 слов для резюме.
Особенности включают строки: автор, тело, normalizedBody, содержание, сводка, subreddit, subreddit_id. Контент используется как документ, а резюме используется как резюме.
- Дополнительная документация : изучить документы с кодом 
- Домашняя страница : https://github.com/webis-de/webis-tldr-17-corpus 
- Исходный код : - tfds.datasets.reddit.Builder
- Версии : -  1.0.0(по умолчанию): нет примечаний к выпуску.
 
-  
- Размер загрузки : - 2.93 GiB
- Размер набора данных : - 18.09 GiB
- Автоматическое кэширование ( документация ): Нет 
- Сплиты : 
| Расколоть | Примеры | 
|---|---|
| 'train' | 3 848 330 | 
- Структура функции :
FeaturesDict({
    'author': string,
    'body': string,
    'content': string,
    'id': string,
    'normalizedBody': string,
    'subreddit': string,
    'subreddit_id': string,
    'summary': string,
})
- Документация по функциям :
| Особенность | Учебный класс | Форма | Dтип | Описание | 
|---|---|---|---|---|
| ОсобенностиDict | ||||
| автор | Тензор | нить | ||
| тело | Тензор | нить | ||
| содержание | Тензор | нить | ||
| я бы | Тензор | нить | ||
| нормализованное тело | Тензор | нить | ||
| сабреддит | Тензор | нить | ||
| subreddit_id | Тензор | нить | ||
| резюме | Тензор | нить | 
- Контролируемые ключи (см. - as_superviseddoc ):- ('content', 'summary')
- Рисунок ( tfds.show_examples ): не поддерживается. 
- Примеры ( tfds.as_dataframe ): 
- Цитата :
@inproceedings{volske-etal-2017-tl,
    title = "{TL};{DR}: Mining {R}eddit to Learn Automatic Summarization",
    author = {V{\"o}lske, Michael  and
      Potthast, Martin  and
      Syed, Shahbaz  and
      Stein, Benno},
    booktitle = "Proceedings of the Workshop on New Frontiers in Summarization",
    month = sep,
    year = "2017",
    address = "Copenhagen, Denmark",
    publisher = "Association for Computational Linguistics",
    url = "https://www.aclweb.org/anthology/W17-4508",
    doi = "10.18653/v1/W17-4508",
    pages = "59--63",
    abstract = "Recent advances in automatic text summarization have used deep neural networks to generate high-quality abstractive summaries, but the performance of these models strongly depends on large amounts of suitable training data. We propose a new method for mining social media for author-provided summaries, taking advantage of the common practice of appending a {``}TL;DR{''} to long posts. A case study using a large Reddit crawl yields the Webis-TLDR-17 dataset, complementing existing corpora primarily from the news genre. Our technique is likely applicable to other social media sites and general web crawls.",
}