Дубли и каннибализация — скрытые убийцы трафика. Две ваши страницы конкурируют за один запрос — и обе проигрывают. Вот как найти.
Шаг 1: Найти каннибалов через GSC
- GSC → Эффективность → фильтр по запросу
- Вкладка «Страницы» → если по одному запросу показываются 2+ URL — это каннибализация
- Особенно если позиции «прыгают» между ними
Шаг 2: Массовая проверка через Screaming Frog
- Скраулите сайт → экспорт Title и H1
- Найдите дубли Title: сортировка → одинаковые заголовки
- Найдите похожие H1: запросы в Title пересекаются
Шаг 3: Content Similarity
- Siteliner.com — находит дублированный контент между страницами
- Screaming Frog → Content → Near Duplicates (по Jaccard similarity)
Как исправить
- Объединить: если две страницы на одну тему — объедините в одну сильную. 301-редирект со второй
- Разделить: если темы разные, но title/H1 пересекаются — переоптимизируйте под разные ключи
- Canonical: если нужны обе страницы (например, фильтры) — canonical на основную
Важный нюанс: дубли часто возникают из-за технических параметров — например, когда страницы доступны с www и без, с / в конце URL или с разными параметрами сортировки. В Screaming Frog проверьте вкладку «Parameters» и настройте обработку дублей в Configuration → Spider. Для точного анализа контента рекомендую Copyscape (платный, но глубокий анализ) или Text.ru (бесплатный, но с ограничениями). Если страницы действительно похожи по смыслу, но не являются дублями, попробуйте метод «content merging» — объедините сильные стороны материалов в один исчерпывающий документ, а вторую страницу закройте 301 редиректом или добавив rel=canonical.
Особое внимание уделяйте коммерческим страницам: товары в разных цветах с идентичными описаниями или категории с минимальными текстовыми различиями часто «крадут» трафик друг у друга. Для интернет-магазинов советую использовать инструменты вроде Ryte или OnCrawl — они умеют анализировать структуру данных и выявлять скрытые дубли в каталогах. Помните: даже 30% совпадения контента — уже тревожный сигнал, особенно для SEO-страниц.