На радаре Ahrefs Blog Ошибки AI и ложные цитаты: риски для SEO в 2026 году

Технический SEO

Невидимый убийца трафика: как дубли метатегов и URL съедают вашу прибыль

Александр Тригуб — SEO-маркетолог
Александр Тригуб SEO-маркетолог · с 2010 · 500+ аудитов · 1092 заказа · 4.9★

Вы вкладываете деньги в контент, наращиваете ссылочную массу и ждёте потока заявок из поиска, но трафик стоит на месте. Открываете Яндекс Метрику — графики плоские, словно кардиограмма пациента в глубоком наркозе. Причина часто не в качестве текстов и не в конкурентах. Причина — технический мусор: дубли метатегов и URL-адресов, которые незаметно пожирают ваш краулинговый бюджет и размывают позиции в выдаче.

Дубли метатегов и URL — невидимый убийца трафика

Ключевые факты

  • Вы вкладываете деньги в контент, наращиваете ссылочную массу и ждёте потока заявок из поиска, но трафик стоит на месте
  • Открываете Яндекс Метрику — графики плоские, словно кардиограмма пациента в глубоком наркозе
  • Title — это заголовок страницы, который поисковик показывает в результатах выдачи
  • Дубли метатегов — это половина проблемы
  • Дубли не ломают сайт мгновенно
  • Прежде чем лечить, нужно поставить диагноз

Представьте библиотеку. На ста полках стоят книги с одинаковой обложкой: «Купить кроссовки Nike в Москве». Библиотекарь не знает, какую выдать читателю. Он выбирает одну наугад, а остальные 99 убирает в архив. Поисковый робот работает точно так же: находит десятки страниц с одинаковыми Title и Description, теряется, и вместо того чтобы показать вашу лучшую страницу в топ-3, вообще ничего не показывает.

За 15 лет в SEO я видел эту проблему на сотнях проектов. И почти всегда владелец бизнеса даже не подозревал, что его сайт разбух втрое от технического мусора. Давайте разберём, откуда берутся дубли, чем они опасны и как от них избавиться.

Главное: Title — это заголовок страницы, который поисковик показывает в результатах выдачи.

Что такое дубли метатегов и почему Title с Description решают судьбу страницы

Title — это заголовок страницы, который поисковик показывает в результатах выдачи. Description — краткое описание под ним. Вместе они формируют сниппет: тот самый прямоугольник в поисковой выдаче, на который пользователь либо кликает, либо проходит мимо.

Когда Title и Description уникальны, точно отражают содержание страницы и содержат целевой запрос — поисковик понимает, о чём страница, и уверенно ранжирует её. Когда одинаковые метатеги стоят на десятках страниц — начинается хаос.

Как возникают дубли Title

Типичная ситуация: интернет-магазин с 500 товарами. CMS автоматически подставляет шаблонный Title вида «Купить [название товара] — интернет-магазин [Бренд]». Кажется, что всё уникально. Но откройте товары одного бренда или одной категории — и увидите, что реальные Title отличаются на одно-два слова. Для поисковика это практически одинаковые страницы.

Другой сценарий: CMS генерирует Title по умолчанию из H1 или из названия рубрики. Если в WordPress не настроены SEO-плагины (Yoast SEO, Rank Math) или настроены шаблонно — все страницы категории получают Title вида «Категория — Название сайта». Пятьдесят категорий, пятьдесят одинаковых конструкций.

Как возникают дубли Description

Ещё проще: Description часто не заполняют вообще. Поисковик сам вытягивает описание из контента страницы. Если на сайте шаблонные тексты (а это бич интернет-магазинов с карточками товаров из одного прайс-листа), то и автоматически сгенерированные описания окажутся одинаковыми.

Второй частый случай — массовая генерация Description через шаблон CMS. На выходе: «Заказать [категория] по выгодной цене с доставкой по Москве» на 300 страницах. Поисковик воспринимает это как спам.

Где прячутся дубли URL: пять главных источников

Дубли метатегов — это половина проблемы. Вторая половина — дублированные URL, которые создают фантомные копии реальных страниц. Вот где они чаще всего прячутся.

GET-параметры: utm, sort, filter, page

Каждый раз, когда пользователь сортирует товары, применяет фильтр или переходит по UTM-ссылке из рекламы, CMS генерирует новый URL:

  • /catalog/krossovki/ — основная страница
  • /catalog/krossovki/?sort=price — сортировка по цене
  • /catalog/krossovki/?filter_color=black — фильтр по цвету
  • /catalog/krossovki/?utm_source=yandex&utm_medium=cpc — UTM-метка
  • /catalog/krossovki/?sort=price&filter_color=black&page=2 — комбинация

Для поисковика каждый из этих URL — отдельная страница. Контент на них одинаковый (или почти одинаковый), Title и Description — тоже. Результат: пять «разных» страниц с идентичным содержимым вместо одной сильной.

На одном e-commerce проекте по стройматериалам я обнаружил более 4 000 таких фантомных URL, созданных комбинациями параметров фильтрации. Сайт с 800 реальными товарными страницами превратился в монстра на 5 000 адресов. После очистки — настройки canonical, закрытия параметров в Яндекс Вебмастере и правки robots.txt — органический трафик вырос на 40% за два месяца. Без единой новой статьи, без новых ссылок. Просто убрали мусор.

Пагинация

Страницы пагинации (/blog/page/2/, /blog/page/3/) часто наследуют Title и Description от первой страницы. В результате: «Блог компании — Название сайта» стоит на /blog/, /blog/page/2/, /blog/page/3/ и так далее. Поисковик видит десять страниц с одинаковым заголовком и не понимает, какую из них показать.

Версии с www и без www, http и https

Казалось бы, это базовая настройка. Но до сих пор встречаю сайты, где работают все четыре версии:

  • http://site.ru
  • https://site.ru
  • http://www.site.ru
  • https://www.site.ru

Это четыре полных копии сайта. Если на сайте 200 страниц, поисковик видит 800.

Trailing slash: со слэшем и без

/uslugi/seo и /uslugi/seo/ — технически разные URL. Если сервер отдаёт контент по обоим адресам без редиректа, каждая страница существует в двух копиях. На сайте в 300 страниц это мгновенно превращается в 600.

Индексация технических страниц

Страницы корзины, личного кабинета, результатов поиска по сайту, превью для печати — всё это часто попадает в индекс. На одном медицинском проекте я нашёл в индексе Яндекса 120 страниц внутреннего поиска вида /search/?q=стоматолог, /search/?q=имплантация. Каждая с Title «Результаты поиска — Клиника [Название]». Сто двадцать дублей заголовка.

Последствия: что происходит с сайтом, заражённым дублями

Дубли не ломают сайт мгновенно. Они работают как хроническое заболевание: симптомы нарастают постепенно, и к моменту, когда владелец замечает проблему, ситуация уже серьёзная.

Краулинговый бюджет уходит в мусор

У каждого сайта есть лимит на количество страниц, которые поисковый робот готов обойти за одно посещение. Это называется краулинговый бюджет. Если робот тратит его на обход 4 000 фантомных URL вместо 800 реальных — ваши новые статьи и товары просто не попадают в индекс вовремя. Или не попадают вообще.

Проверить легко: откройте Яндекс Вебмастер, раздел «Индексирование» и «Статистика обхода». Если робот обходит в три раза больше страниц, чем у вас реально существует — у вас проблема.

Каннибализация запросов

Когда несколько страниц оптимизированы под один и тот же запрос (или получают одинаковые метатеги), они начинают конкурировать друг с другом. Поисковик не понимает, какую страницу показать, и в итоге показывает не ту, которую вы хотели, — или вообще ни одну.

Пример из моей практики: у стоматологической клиники было три страницы с Title, содержащим «имплантация зубов»: основная услуга, статья в блоге и страница с ценами. Все три попадали в индекс, все три боролись за один запрос. Ни одна не поднималась выше 20-й позиции. После того как мы оставили один основной документ, а на остальных поменяли Title и расставили canonical — целевая страница вошла в топ-7 за четыре недели.

Выпадение из индекса

Яндекс умеет определять дубли и помечает их статусом «Дубль» в разделе «Исключённые страницы». Но алгоритм не всегда выбирает правильный оригинал. Иногда в индексе остаётся страница с UTM-параметром, а ваша красивая целевая страница с CTA и формой заявки улетает в исключённые. Вы теряете трафик, не зная почему.

Размытие ссылочного веса

Если на сайт ведут обратные ссылки, но часть из них указывает на дублированные URL — ссылочный вес делится между копиями. Вместо одной сильной страницы получается пять слабых. В конкурентных нишах это разница между первой страницей выдачи и третьей.

Как найти дубли: пошаговая инструкция

Прежде чем лечить, нужно поставить диагноз. Вот четыре метода, которые я использую на каждом проекте.

Операторы поиска: быстрая проверка за 2 минуты

Самый простой способ — поисковые операторы. Откройте Яндекс и введите:

site:vash-site.ru intitle:"Купить кроссовки"

Если по одному и тому же вхождению в Title находится больше одной-двух страниц — у вас дубль. Повторите для основных коммерческих запросов. Это занимает несколько минут, но даёт моментальное понимание масштаба проблемы.

Для проверки Description используйте оператор:

site:vash-site.ru "Ваш текст Description"

Если находится больше одной страницы — Description дублируется.

Яндекс Вебмастер: раздел «Исключённые страницы»

Это мой основной инструмент диагностики дублей. Путь: Яндекс Вебмастер → Индексирование → Страницы в поиске → Исключённые. Здесь Яндекс прямо показывает страницы, которые он считает дублями, и указывает URL оригинала, который он выбрал.

На что обращать внимание:

  • Статус «Дубль» — Яндекс нашёл другую страницу с таким же содержимым и оставил её вместо текущей.
  • Статус «Не выбрано каноническое» — вы указали canonical, но Яндекс с ним не согласился.
  • Количество исключённых — если исключённых больше, чем проиндексированных, сайт серьёзно раздут.

Также загляните в раздел «Индексирование → Параметры URL». Здесь можно увидеть, какие GET-параметры Яндекс уже обнаружил, и сразу настроить их обработку (об этом ниже).

Google Search Console: отчёт «Страницы»

В GSC (Google Search Console) откройте отчёт «Страницы» (ранее «Покрытие»). Фильтруйте по статусу «Исключено» и ищите причины:

  • «Дубликат без канонической страницы, выбранной пользователем» — Google нашёл дубль, canonical не указан.
  • «Дубликат: Google выбрал каноническую страницу, отличную от указанной пользователем» — вы указали canonical, но Google решил иначе.
  • «Дубликат: отправленный URL не выбран в качестве канонического» — URL из Sitemap оказался дублем.

Обратите внимание: если ваш проект нацелен на аудиторию в России, основным инструментом анализа будет Яндекс Вебмастер. Google Search Console полезен как дополнительный источник данных, особенно если у вас есть аудитория из СНГ и дальнего зарубежья.

Screaming Frog: полный технический аудит

Для системного анализа я использую Screaming Frog SEO Spider. Запускаете полный обход сайта, затем переходите во вкладку «Page Titles» или «Meta Description» и сортируете по столбцу «Duplicate». Программа сразу группирует страницы с одинаковыми метатегами и показывает, сколько дублей у каждого.

Бесплатная версия Screaming Frog обходит до 500 URL — для небольшого сайта этого достаточно. Для крупных проектов нужна лицензия (стоимость оплачивается отдельно от услуг SEO-специалиста).

Python-скрипт: вайб-кодинг для автоматизации

Когда на проекте тысячи страниц и стандартных инструментов не хватает, я пишу собственные скрипты на Python. Это то, что я называю вайб-кодинг — создание рабочих инструментов с помощью AI за считанные минуты. Не нужно быть программистом: достаточно описать задачу, и Claude или GPT сгенерирует готовый скрипт.

Вот логика типичного скрипта для поиска дублей метатегов:

  1. Берём список URL из Sitemap.xml (парсим его библиотекой requests + xml.etree).
  2. Обходим каждый URL и извлекаем Title и Description из HTML (через BeautifulSoup).
  3. Складываем результаты в таблицу (через pandas).
  4. Группируем по Title — если у одного Title больше одного URL, это дубль.
  5. Экспортируем в Excel с цветной разметкой дублей.

На выходе — таблица, где в одном столбце Title, в другом — все URL с этим Title, в третьем — количество дублей. Скрипт обходит 3 000 страниц за 10-15 минут и выдаёт готовый отчёт, который можно сразу отправить разработчику.

Преимущество такого подхода перед Screaming Frog — полная кастомизация. Можно добавить проверку canonical, сравнение H1 с Title, анализ длины Description, проверку ответов сервера — всё в одном прогоне. На моём сайте trigub.ru/catalog-of-tools/ я собрал каталог подобных инструментов, включая SERP Architect для генерации SEO-контента на основе анализа выдачи.

Как устранить дубли: пошаговое решение

Диагностика завершена, список дублей перед глазами. Теперь — лечение. Порядок действий зависит от типа проблемы.

Canonical: указываем поисковику правильный оригинал

Тег <link rel="canonical" href="https://site.ru/target-page/"> в секции <head> каждой страницы говорит поисковику: «Вот оригинал, индексируй его, а текущую страницу считай копией».

Правила расстановки canonical:

  • Каждая страница должна иметь canonical — даже если она не дубль. Canonical, указывающий сам на себя (self-referencing), — это нормальная и рекомендуемая практика.
  • Canonical должен быть абсолютным URL — с протоколом и доменом: https://site.ru/page/, а не /page/.
  • Один canonical на страницу — если на странице два тега canonical, поисковик проигнорирует оба.
  • Canonical не должен вести на 404 или редирект — только на реально существующую, доступную страницу с кодом ответа 200.

В WordPress с Yoast SEO canonical настраивается в метабоксе каждой записи или страницы, поле «Canonical URL». Для массовой настройки удобнее использовать шаблоны Yoast или задать правила через functions.php.

Параметры URL в Яндекс Вебмастере

Яндекс Вебмастер позволяет указать, как обрабатывать GET-параметры. Путь: Индексирование → Параметры URL. Здесь вы видите список всех параметров, которые робот обнаружил на вашем сайте.

Для каждого параметра можно выбрать действие:

  • «Не влияет на содержимое страницы» — для UTM-меток, идентификаторов сессий, реферальных кодов. Яндекс будет игнорировать эти параметры и не создавать отдельные записи в индексе.
  • «Определяет содержимое страницы» — для параметров, которые реально меняют контент (например, ?product_id=123).

На практике: почти все utm_-параметры, параметры сортировки (sort, order, orderby) и идентификаторы сессий (sid, session_id, PHPSESSID) нужно пометить как не влияющие на содержимое. Это моментально сокращает количество «страниц» в индексе.

Robots.txt: закрываем технические разделы

Robots.txt — это файл с инструкциями для поисковых роботов, который лежит в корне сайта. С его помощью можно закрыть от индексации целые разделы:

User-agent: *
Disallow: /cart/
Disallow: /checkout/
Disallow: /search/
Disallow: /wp-admin/
Disallow: /*?s=
Disallow: /*?sort=
Disallow: /*?filter_

Важный нюанс: Disallow в robots.txt не гарантирует удаление из индекса. Робот может не заходить на страницу, но если на неё есть внешние ссылки — она всё равно может попасть в индекс. Для надёжного удаления используйте мета-тег <meta name="robots" content="noindex, follow"> на самой странице.

Разница между robots.txt и noindex:

  • Robots.txt — запрещает роботу заходить на страницу. Быстро, но ненадёжно.
  • Noindex — робот заходит, видит метатег и удаляет страницу из индекса. Надёжно, но робот тратит ресурсы на обход.

Оптимальная стратегия: robots.txt для массовых закрытий (тысячи параметрических URL), noindex — для отдельных страниц, которые должны быть доступны пользователям, но не поисковикам (корзина, личный кабинет).

301-редиректы: устраняем дубли протоколов и слэшей

Для проблем с www/без www, http/https и trailing slash решение одно — 301-редирект. Все вариации должны перенаправлять на один канонический формат.

Пример для .htaccess (Apache):

# Редирект с http на https
RewriteCond %{HTTPS} off
RewriteRule ^(.*)$ https://%{HTTP_HOST}/$1 [R=301,L]

# Редирект с www на без www
RewriteCond %{HTTP_HOST} ^www.(.+)$ [NC]
RewriteRule ^(.*)$ https://%1/$1 [R=301,L]

Для Nginx логика аналогичная, только синтаксис другой. Если не уверены в настройках сервера — обратитесь к разработчику или хостинг-провайдеру. Неправильный редирект может положить весь сайт.

Уникализация пагинации

Страницы пагинации должны иметь уникальные Title. Вместо одинакового «Блог — Компания» на каждой странице используйте шаблон:

  • Страница 1: «Блог о SEO — Компания»
  • Страница 2: «Блог о SEO — Страница 2 — Компания»
  • Страница 3: «Блог о SEO — Страница 3 — Компания»

В WordPress с Yoast SEO это настраивается в шаблонах Title через переменную %%page%%. Если используете другой плагин или собственную тему — добавьте номер страницы в Title программно через хук wp_title или document_title_parts.

Для Description на страницах пагинации рекомендую ставить noindex или указывать canonical на первую страницу раздела. Это зависит от объёма контента: если на каждой странице пагинации уникальные товары — лучше noindex с follow, чтобы ссылки на товары по-прежнему работали.

Уникализация метатегов: шаблоны, которые работают

Убрать дубли URL — половина задачи. Вторая половина — сделать Title и Description уникальными на каждой странице. Для сайтов с сотнями и тысячами страниц вручную это делать нереально. Нужны шаблоны.

Шаблоны Title для интернет-магазинов

Хороший Title для товарной страницы содержит: название товара + ключевой атрибут + действие + бренд/город. Примеры:

  • Кроссовки Nike Air Max 90 черные — купить в Москве | [Магазин]
  • Плитка керамогранит Italon 60x60 — цена от 1 200 руб/м2 | [Магазин]

Для категорий: название категории + ключевое действие + фильтр (если есть) + бренд. Пример:

  • Беговые кроссовки — каталог с ценами, купить с доставкой | [Магазин]

Длина Title — до 60-70 символов для Яндекса. Всё, что длиннее, обрежется в сниппете.

Шаблоны Description

Description должен дополнять Title, а не дублировать его. Хороший Description содержит: выгоду или УТП + конкретику (цена, наличие, сроки) + призыв к действию.

Пример для товара:

Кроссовки Nike Air Max 90 в наличии. Размеры 39-46. Бесплатная доставка по Москве за 1 день. Гарантия оригинала. Закажите с примеркой.

Длина Description — до 155-160 символов. Яндекс может подставить свой текст вместо вашего, но правильно заполненный Description увеличивает шансы на привлекательный сниппет.

Приоритеты: с чего начать, если дублей тысячи

На крупных проектах невозможно исправить всё за один день. Вот мой порядок приоритетов, который я выработал на десятках проектов:

  1. 301-редиректы для протоколов и www — решается за час, эффект максимальный. Устраняет полное дублирование всего сайта.
  2. Настройка параметров URL в Яндекс Вебмастере — занимает 15 минут, убирает тысячи фантомных URL из индексации.
  3. Canonical на всех страницах — в WordPress с Yoast SEO это делается автоматически, нужно только проверить корректность.
  4. Robots.txt для технических разделов — корзина, поиск, личный кабинет, предпросмотр.
  5. Уникализация Title и Description — шаблоны через SEO-плагин для массовых страниц, ручная правка для ключевых.
  6. Noindex для страниц пагинации, тегов, архивов дат — часто забытый источник дублей.

Весь процесс на среднем сайте (300-500 страниц) занимает 2-3 дня работы. На крупном e-commerce проекте — одну-две недели. Но результат ощущается уже через 2-4 недели, когда поисковик переобходит сайт и обновляет индекс.

Профилактика: как не допустить повторного появления дублей

Устранить дубли один раз — недостаточно. Они возвращаются при каждом обновлении CMS, добавлении нового плагина или изменении структуры каталога. Вот что нужно делать регулярно:

  • Ежемесячный обход Screaming Frog (или собственным Python-скриптом) — проверка на новые дубли Title и Description.
  • Мониторинг «Исключённых страниц» в Яндекс Вебмастере — раз в две недели. Если количество исключённых растёт — ищите источник.
  • Проверка robots.txt после обновлений — некоторые плагины WordPress перезаписывают robots.txt при обновлении.
  • Аудит нового контента перед публикацией — проверяйте, что Title и Description уникальны. Звучит очевидно, но на практике при массовой загрузке товаров этот шаг часто пропускают.
  • Контроль Sitemap.xml — в нём должны быть только страницы с кодом 200 и без параметров. Если ваш Sitemap содержит URL с UTM-метками — исправьте генерацию.

SEO — это не разовая акция, а постоянная гигиена. Как в медицине: можно вылечить кариес, но без регулярной чистки он вернётся. Сайт требует такого же внимания.

Уберите мусор — и трафик пойдёт

Дубли метатегов и URL — это не экзотическая проблема для программистов. Это одна из самых распространённых причин, почему сайты с хорошим контентом и нормальным ссылочным профилем не растут в поиске. Вы можете писать лучшие статьи в нише, но если поисковик тратит ресурсы на обход тысяч мусорных страниц — ваш контент просто не доходит до выдачи.

Проверьте свой сайт прямо сейчас. Откройте Яндекс Вебмастер, загляните в «Исключённые страницы». Если там больше 10% от общего количества страниц помечены как дубли — у вас есть работа. И чем раньше вы за неё возьмётесь, тем быстрее увидите результат.

Если не хотите разбираться в этом самостоятельно — я провожу технический SEO-аудит, в рамках которого нахожу и устраняю все виды дублей. Подробности на странице SEO-аудит.

Вопросы и ответы

Нужна помощь с продвижением?

Разберём ваш сайт — покажу точки роста и план действий. Записаться на консалтинг.

Что такое дубли метатегов и чем они опасны для SEO?

Дубли метатегов — это ситуация, когда несколько страниц сайта имеют одинаковые Title или Description. Поисковик не может определить, какая из этих страниц наиболее релевантна запросу пользователя, и в результате может не показать ни одну из них на высоких позициях. Это приводит к потере трафика, каннибализации запросов и неэффективному расходу краулингового бюджета.

Как быстро проверить сайт на дубли Title?

Самый быстрый способ — использовать поисковый оператор site:vash-site.ru intitle:"ваш заголовок" в Яндексе. Если по одному Title находится несколько страниц — у вас дубль. Для полного анализа используйте Screaming Frog (бесплатная версия обходит до 500 URL) или раздел «Исключённые страницы» в Яндекс Вебмастере — там дубли помечены отдельным статусом.

Влияют ли UTM-метки на появление дублей в индексе?

Да, и это одна из самых частых причин. Каждый URL с UTM-параметром (?utm_source=yandex&utm_medium=cpc) воспринимается поисковиком как отдельная страница. Если на сайт идёт трафик из нескольких рекламных каналов — количество фантомных URL может вырасти в разы. Решение: настроить обработку UTM-параметров в Яндекс Вебмастере и указать canonical на основную страницу без параметров.

Чем отличается canonical от noindex для борьбы с дублями?

Canonical — это рекомендация поисковику: «считай оригиналом вот эту страницу». Поисковик может её учесть, а может проигнорировать. Noindex — это директива: «не включай эту страницу в индекс». Canonical используют, когда страница-дубль нужна пользователям (например, версия с фильтром), а noindex — когда страница техническая и пользователям не нужна (корзина, результаты поиска).

Сколько времени нужно, чтобы увидеть результат после устранения дублей?

Первые изменения в индексе видны через 1-2 недели, когда поисковый робот переобходит исправленные страницы. Ощутимый рост позиций и трафика обычно наступает через 4-8 недель. Скорость зависит от размера сайта, частоты обхода роботом и масштаба проблемы. На одном из моих проектов трафик вырос на 40% за два месяца после устранения 4 000 фантомных URL.

Можно ли решить проблему дублей только через robots.txt?

Нет, robots.txt — это не панацея. Он запрещает роботу заходить на страницу, но не гарантирует удаление из индекса. Если на закрытую через robots.txt страницу ведут внешние ссылки, она всё равно может попасть в индекс (без содержимого, но с Title из ссылки). Для надёжного решения нужна комбинация: robots.txt для массовых закрытий, canonical для указания оригинала, noindex для отдельных страниц и 301-редиректы для дублей протоколов.

Как часто нужно проверять сайт на дубли метатегов?

Рекомендую проводить проверку не реже одного раза в месяц. Дубли появляются при любых изменениях на сайте: обновлении CMS, добавлении новых товаров или страниц, установке плагинов, изменении структуры каталога. Мониторинг раздела «Исключённые страницы» в Яндекс Вебмастере занимает 5 минут — этого достаточно, чтобы заметить проблему на ранней стадии.

Какие CMS чаще всего создают дубли URL?

Проблема встречается на любых CMS, но особенно часто — на WordPress (из-за архивов дат, тегов и автора), на 1C-Битрикс (из-за параметров фильтрации в каталоге) и на самописных движках без SEO-модуля. В WordPress большинство дублей решается плагинами Yoast SEO или Rank Math. В Битрикс часто требуется доработка на уровне сервера и шаблонов. На самописных CMS — только ручная настройка или разработка модуля canonical и noindex.

Что делать, если Яндекс выбрал «неправильный» оригинал среди дублей?

Это распространённая ситуация: вы хотели, чтобы индексировалась страница /uslugi/seo/, а Яндекс выбрал оригиналом /uslugi/seo/?utm_source=direct. Решение: установите canonical на нужную страницу, убедитесь, что именно она указана в Sitemap.xml, и что внутренние ссылки ведут на неё (без параметров). Через 2-4 недели Яндекс пересмотрит свой выбор. Если не пересмотрел — напишите в поддержку Яндекс Вебмастера через форму обратной связи.

Нужно ли удалять страницы-дубли или достаточно закрыть их от индексации?

Зависит от типа дубля. Фантомные URL с GET-параметрами удалять не нужно — достаточно настроить canonical и параметры в Яндекс Вебмастере. Реальные страницы-дубли (например, две статьи на одну тему) лучше объединить: выбрать сильнейшую, перенести на неё полезный контент из второй, а вторую удалить с 301-редиректом на первую. Это сохранит ссылочный вес и избавит от каннибализации.

Кто ведёт проект

Александр Тригуб — частный SEO-маркетолог. В поисковом маркетинге с 2010 года, предприниматель с 2001-го. В SEO пришёл из собственного бизнеса — знаю, как устроены продажи не из учебников, а из собственной выручки и расходов.

  • Специализация: медицина, B2B, e-commerce и локальные услуги — ниши, где каждый лид стоит дорого.
  • Подтверждённый опыт: 500+ видео-аудитов в разных тематиках, 1092 заказа (рейтинг 4.9 / 5). Отзывы · Видео-аудиты.
  • Формат: работаю напрямую, один специалист на проект — без менеджеров и субподрядных цепочек.
  • Отчётность: KPI по лидам и деньгам. Ежемесячный план/факт, а не PDF на 50 страниц.
15+лет в маркетинге
500+видео-аудитов
1092заказов
4.9★728 отзывов

Нужно применить это к вашему сайту?

Сделаю короткий разбор и скажу, что из статьи реально даст эффект именно в вашей нише и регионе.

Полезное по теме

Все статьи блога → Все услуги →