Datasets:
The dataset viewer is not available for this split.
Error code: UnexpectedError
Need help to make the dataset viewer work? Make sure to review how to configure the dataset viewer, and open a discussion for direct support.
📚 Russian Wikipedia Top 100K: Full Text with Daily Pageviews
📖 Описание
Этот датасет содержит 99,348 самых популярных статей русскоязычной Википедии, отобранных по совокупному количеству просмотров за последние 10 лет. Для каждой статьи собраны полный текст с сохранением структуры, метаданные и детальная ежедневная статистика просмотров.
Датасет уникален тем, что объединяет три ключевых компонента:
- Полный текст — не только краткое содержание, но и весь текст статьи со структурой секций
- Временны́е ряды просмотров — ежедневная статистика за ~10 лет (3,585 дней с июля 2015 года по 28 декабря 2025)
- Классификация по тематике — автоматическая маркировка статей, связанных с Россией
📊 Статистика датасета
| Метрика | Значение |
|---|---|
| Всего статей | 99,348 |
| Общее количество слов | 133,451,443 |
| Среднее слов на статью | 1,343 |
| Общее количество просмотров | 13,086,684,252 |
| Период сбора статистики | ~10 лет (3,585 дней) |
| Статей, связанных с Россией | 21,031 (21.2%) |
| Статей с инфобоксом | 20,781 (20.9%) |
| Среднее секций на статью | 6.5 |
| Статей с ежедневной статистикой | 100% |
🏆 Топ-5 статей по просмотрам
| Ранг | Статья | Просмотры | Среднее в день |
|---|---|---|---|
| 1 | Яндекс | 155,776,186 | 43,452 |
| 2 | YouTube | ~150M+ | ~42,000 |
| 3 | Россия | ~140M+ | ~39,000 |
| 4 | Путин, Владимир Владимирович | ~130M+ | ~36,000 |
| 5 | Вторая мировая война | ~120M+ | ~33,000 |
| ... | ... | ... | ... |
🗂️ Структура данных
Датасет содержит 21 поле, разделённых на логические группы.
Основные поля идентификации
| Поле | Тип | Описание |
|---|---|---|
title |
string |
Заголовок статьи в оригинальном виде |
page_id |
int64 |
Уникальный идентификатор страницы в Wikipedia |
url |
string |
Полный URL статьи |
Контент статьи
| Поле | Тип | Описание |
|---|---|---|
lead |
large_string |
Вводный абзац (краткое содержание до первой секции) |
full_text |
large_string |
Полный текст статьи, очищенный от wiki-разметки |
sections |
list[dict] |
Структурированный список секций (см. детали ниже) |
categories |
list[string] |
Список категорий Wikipedia (до 50) |
infobox |
large_string |
Данные инфобокса (карточки) в формате JSON-строки |
Структура секции (sections):
{
"level": 2, # Уровень заголовка (2 = ==, 3 = ===, и т.д.)
"title": "История", # Заголовок секции
"text": "Текст..." # Содержимое секции
}
Статистика просмотров (агрегированная)
| Поле | Тип | Описание |
|---|---|---|
total_views |
int64 |
Суммарное количество просмотров за весь период |
pageview_rank |
int32 |
Ранг по популярности (1 = самая популярная) |
avg_daily_views |
float32 |
Среднее количество просмотров в день |
max_daily_views |
int32 |
Максимальное количество просмотров за один день |
min_daily_views |
int32 |
Минимальное количество просмотров за один день |
days_tracked |
int32 |
Количество дней, за которые есть статистика |
Ежедневная статистика просмотров
| Поле | Тип | Описание |
|---|---|---|
daily_views |
large_string |
JSON-строка с ежедневными просмотрами |
Формат daily_views:
{
"2015-07-01": 1234,
"2015-07-02": 5678,
"2015-07-03": 9012,
...
"2025-05-15": 4567
}
Классификация связи с Россией
| Поле | Тип | Описание |
|---|---|---|
is_russia_related |
bool |
Флаг: статья связана с Россией |
russia_confidence |
float32 |
Степень уверенности классификатора (0.0–1.0) |
Как работает классификатор:
Классификатор использует многофакторный подход с морфологическим анализом (pymorphy3):
- Анализ заголовка (вес 3.0) — поиск ключевых слов: «Россия», «Москва», «СССР», названия городов и т.д.
- Анализ категорий (вес 2.0) — поиск паттернов в категориях Wikipedia
- Анализ текста (вес 0.5 за совпадение) — поиск ключевых слов во вводном абзаце
Итоговая уверенность нормализуется в диапазон [0, 1]. Статья считается связанной с Россией при confidence ≥ 0.3.
Статистика контента
| Поле | Тип | Описание |
|---|---|---|
word_count |
int32 |
Количество слов в полном тексте |
section_count |
int32 |
Количество секций в статье |
category_count |
int32 |
Количество категорий |
Метаданные
| Поле | Тип | Описание |
|---|---|---|
fetch_timestamp |
string |
Дата и время загрузки статьи (ISO 8601) |
🚀 Быстрый старт
Загрузка датасета
from datasets import load_dataset
# Загрузка полного датасета
dataset = load_dataset("Mikimi/ru-wikipedia-daily-pageviews-full-text")
# Просмотр структуры
print(dataset)
print(f"Количество статей: {len(dataset['train']):,}")
Базовые примеры
# Доступ к первой статье
article = dataset['train'][0]
print(f"Заголовок: {article['title']}")
print(f"Просмотров: {article['total_views']:,}")
print(f"Слов: {article['word_count']:,}")
# Краткое содержание
print(f"\nВводный абзац:\n{article['lead'][:500]}...")
# Полный текст
print(f"\nПолный текст (первые 1000 символов):\n{article['full_text'][:1000]}...")
Работа с ежедневной статистикой
import json
import matplotlib.pyplot as plt
# Парсинг ежедневных просмотров
daily = json.loads(article['daily_views'])
# Построение графика
dates = sorted(daily.keys())
views = [daily[d] for d in dates]
plt.figure(figsize=(14, 5))
plt.plot(range(len(dates)), views, linewidth=0.5)
plt.fill_between(range(len(dates)), views, alpha=0.3)
plt.title(f"Просмотры: {article['title']}")
plt.xlabel("Дни")
plt.ylabel("Просмотры")
plt.show()
Фильтрация статей
# Только статьи о России
russia_dataset = dataset['train'].filter(lambda x: x['is_russia_related'])
print(f"Статей о России: {len(russia_dataset):,}")
# Топ-10000 самых популярных
top_10k = dataset['train'].filter(lambda x: x['pageview_rank'] <= 10000)
# Статьи с большим количеством текста
long_articles = dataset['train'].filter(lambda x: x['word_count'] > 5000)
print(f"Статей > 5000 слов: {len(long_articles):,}")
Работа со структурой статьи
# Доступ к секциям
for section in article['sections'][:5]:
print(f"{' ' * (section['level'] - 2)}[{section['level']}] {section['title']}")
# Парсинг инфобокса
if article['infobox']:
infobox = json.loads(article['infobox'])
for key, value in list(infobox.items())[:5]:
print(f" {key}: {value[:50]}...")
💡 Примеры использования
1. Анализ трендов популярности
import json
import pandas as pd
def get_yearly_views(article):
"""Агрегирует просмотры по годам."""
daily = json.loads(article['daily_views'])
yearly = {}
for date, views in daily.items():
year = date[:4]
yearly[year] = yearly.get(year, 0) + views
return yearly
# Анализ динамики для топ-10 статей
for i in range(10):
article = dataset['train'][i]
yearly = get_yearly_views(article)
print(f"\n{article['title']}:")
for year in sorted(yearly.keys())[-5:]:
print(f" {year}: {yearly[year]:,}")
2. Поиск статей по ключевым словам
def search_articles(dataset, keywords, field='lead', limit=10):
"""Поиск статей по ключевым словам."""
keywords_lower = [k.lower() for k in keywords]
results = []
for article in dataset:
text = article[field].lower()
if all(kw in text for kw in keywords_lower):
results.append({
'title': article['title'],
'rank': article['pageview_rank'],
'views': article['total_views']
})
if len(results) >= limit:
break
return results
# Поиск статей о космосе
space_articles = search_articles(dataset['train'], ['космос', 'ракета'])
for a in space_articles:
print(f"{a['title']}: {a['views']:,} просмотров")
3. Создание корпуса для NLP
from datasets import Dataset
# Создание упрощённого корпуса для обучения
def create_nlp_corpus(dataset, max_samples=50000):
corpus = []
for article in dataset:
corpus.append({
'text': article['full_text'],
'title': article['title'],
'category': 'russia' if article['is_russia_related'] else 'other'
})
if len(corpus) >= max_samples:
break
return Dataset.from_list(corpus)
nlp_corpus = create_nlp_corpus(dataset['train'])
print(f"Корпус создан: {len(nlp_corpus):,} документов")
4. Анализ сезонности просмотров
import json
from collections import defaultdict
def analyze_seasonality(article):
"""Анализирует сезонность просмотров по месяцам."""
daily = json.loads(article['daily_views'])
monthly = defaultdict(list)
for date, views in daily.items():
month = int(date[5:7])
monthly[month].append(views)
return {m: sum(v) / len(v) for m, v in monthly.items()}
# Анализ сезонности для статьи "Новый год"
new_year = dataset['train'].filter(lambda x: x['title'] == 'Новый год')
if len(new_year) > 0:
seasonality = analyze_seasonality(new_year[0])
for month in sorted(seasonality.keys()):
bar = '█' * int(seasonality[month] / max(seasonality.values()) * 30)
print(f"{month:2d}: {bar} {seasonality[month]:,.0f}")
🔧 Методология сбора данных
Источники данных
- MediaWiki API (
https://ru.wikipedia.org/w/api.php) — для получения полного wikitext статей, категорий и метаданных - Wikimedia Pageviews API (
https://wikimedia.org/api/rest_v1/metrics/pageviews) — для статистики просмотров
Процесс сбора
Сбор статистики просмотров (~3,834 дня):
- Ежедневный запрос топ-1000 статей через Pageviews API
- Агрегация просмотров для определения топ-100K за весь период
- Сохранение ежедневных данных для каждой статьи
Загрузка контента статей:
- Запрос wikitext через MediaWiki API
- Парсинг структуры с помощью библиотеки
mwparserfromhell - Извлечение: lead, секции, категории, инфобокс
- Очистка от wiki-разметки
Классификация:
- Морфологический анализ с
pymorphy3 - Мультифакторная оценка связи с Россией
- Вычисление уровня уверенности
- Морфологический анализ с
Валидация и загрузка:
- Проверка целостности данных
- Сохранение в формате Parquet
- Загрузка на HuggingFace Hub
Фильтрация
Из датасета исключены:
- Служебные страницы (Special:, Служебная:, Википедия:, и т.д.)
- Страницы файлов и категорий
- Шаблоны и модули
- Страницы обсуждений
- Главная страница
📋 Возможные применения
Исследования и аналитика
- Анализ трендов — изучение динамики интереса к темам во времени
- Событийная аналитика — корреляция просмотров с реальными событиями
- Сезонность — выявление паттернов популярности тем
Natural Language Processing
- Языковое моделирование — обучение моделей на русскоязычном контенте
- Суммаризация текста — пары lead/full_text для обучения
- Классификация текста — метки is_russia_related для бенчмарков
- Question Answering — создание QA-датасетов на основе структурированного контента
- Named Entity Recognition — богатый размеченный контент
Системы извлечения информации
- Knowledge Base — структурированные данные из инфобоксов
- RAG-системы — база знаний для Retrieval-Augmented Generation
- Поисковые системы — индексация и ранжирование
Образование и визуализация
- Интерактивные дашборды — визуализация популярности тем
- Образовательные проекты — изучение русскоязычного контента
- Исторический анализ — изменение интересов общества во времени
⚠️ Ограничения
Актуальность контента: Тексты статей загружены на определённую дату (см.
fetch_timestamp). Содержимое Википедии постоянно обновляется.Статистика просмотров: Данные начинаются с июля 2015 года — момента запуска Pageviews API. Более ранняя статистика недоступна.
Классификация "связи с Россией": Автоматический классификатор имеет неточности. Рекомендуется ручная проверка для критичных применений.
Очистка текста: При удалении wiki-разметки возможна потеря некоторого форматирования (таблицы, формулы).
Выборка: Датасет содержит только топ-100K статей по просмотрам на основании дневных топов статей, что не представляет всю Википедию.
📜 Лицензия и цитирование
Лицензия
Датасет распространяется под лицензией CC BY-SA 4.0 (Creative Commons Attribution-ShareAlike 4.0), соответствующей лицензии контента Wikipedia.
Цитирование
@dataset{ru_wikipedia_daily_pageviews_2025,
author = {Miki - OTIPL},
title = {Russian Wikipedia Top 100K: Full Text with Daily Pageviews},
year = {2025},
publisher = {Hugging Face},
url = {https://huggingface.co/datasets/Mikimi/ru-wikipedia-daily-pageviews-full-text},
note = {99,348 most popular Russian Wikipedia articles with full text and 10 years of daily pageview statistics}
}
📞 Обратная связь
Если вы обнаружили ошибки или у вас есть предложения по улучшению датасета, пожалуйста, создайте Issue в репозитории или свяжитесь через Discussions.
- Downloads last month
- 18