Вы вкладываете деньги в контент, наращиваете ссылочную массу и ждёте потока заявок из поиска, но трафик стоит на месте. Открываете Яндекс Метрику — графики плоские, словно кардиограмма пациента в глубоком наркозе. Причина часто не в качестве текстов и не в конкурентах. Причина — технический мусор: дубли метатегов и URL-адресов, которые незаметно пожирают ваш краулинговый бюджет и размывают позиции в выдаче.

Ключевые факты
- Вы вкладываете деньги в контент, наращиваете ссылочную массу и ждёте потока заявок из поиска, но трафик стоит на месте
- Открываете Яндекс Метрику — графики плоские, словно кардиограмма пациента в глубоком наркозе
- Title — это заголовок страницы, который поисковик показывает в результатах выдачи
- Дубли метатегов — это половина проблемы
- Дубли не ломают сайт мгновенно
- Прежде чем лечить, нужно поставить диагноз
Представьте библиотеку. На ста полках стоят книги с одинаковой обложкой: «Купить кроссовки Nike в Москве». Библиотекарь не знает, какую выдать читателю. Он выбирает одну наугад, а остальные 99 убирает в архив. Поисковый робот работает точно так же: находит десятки страниц с одинаковыми Title и Description, теряется, и вместо того чтобы показать вашу лучшую страницу в топ-3, вообще ничего не показывает.
За 15 лет в SEO я видел эту проблему на сотнях проектов. И почти всегда владелец бизнеса даже не подозревал, что его сайт разбух втрое от технического мусора. Давайте разберём, откуда берутся дубли, чем они опасны и как от них избавиться.
Главное: Title — это заголовок страницы, который поисковик показывает в результатах выдачи.
Что такое дубли метатегов и почему Title с Description решают судьбу страницы
Title — это заголовок страницы, который поисковик показывает в результатах выдачи. Description — краткое описание под ним. Вместе они формируют сниппет: тот самый прямоугольник в поисковой выдаче, на который пользователь либо кликает, либо проходит мимо.
Когда Title и Description уникальны, точно отражают содержание страницы и содержат целевой запрос — поисковик понимает, о чём страница, и уверенно ранжирует её. Когда одинаковые метатеги стоят на десятках страниц — начинается хаос.
Как возникают дубли Title
Типичная ситуация: интернет-магазин с 500 товарами. CMS автоматически подставляет шаблонный Title вида «Купить [название товара] — интернет-магазин [Бренд]». Кажется, что всё уникально. Но откройте товары одного бренда или одной категории — и увидите, что реальные Title отличаются на одно-два слова. Для поисковика это практически одинаковые страницы.
Другой сценарий: CMS генерирует Title по умолчанию из H1 или из названия рубрики. Если в WordPress не настроены SEO-плагины (Yoast SEO, Rank Math) или настроены шаблонно — все страницы категории получают Title вида «Категория — Название сайта». Пятьдесят категорий, пятьдесят одинаковых конструкций.
Как возникают дубли Description
Ещё проще: Description часто не заполняют вообще. Поисковик сам вытягивает описание из контента страницы. Если на сайте шаблонные тексты (а это бич интернет-магазинов с карточками товаров из одного прайс-листа), то и автоматически сгенерированные описания окажутся одинаковыми.
Второй частый случай — массовая генерация Description через шаблон CMS. На выходе: «Заказать [категория] по выгодной цене с доставкой по Москве» на 300 страницах. Поисковик воспринимает это как спам.
Где прячутся дубли URL: пять главных источников
Дубли метатегов — это половина проблемы. Вторая половина — дублированные URL, которые создают фантомные копии реальных страниц. Вот где они чаще всего прячутся.
GET-параметры: utm, sort, filter, page
Каждый раз, когда пользователь сортирует товары, применяет фильтр или переходит по UTM-ссылке из рекламы, CMS генерирует новый URL:
/catalog/krossovki/— основная страница/catalog/krossovki/?sort=price— сортировка по цене/catalog/krossovki/?filter_color=black— фильтр по цвету/catalog/krossovki/?utm_source=yandex&utm_medium=cpc— UTM-метка/catalog/krossovki/?sort=price&filter_color=black&page=2— комбинация
Для поисковика каждый из этих URL — отдельная страница. Контент на них одинаковый (или почти одинаковый), Title и Description — тоже. Результат: пять «разных» страниц с идентичным содержимым вместо одной сильной.
На одном e-commerce проекте по стройматериалам я обнаружил более 4 000 таких фантомных URL, созданных комбинациями параметров фильтрации. Сайт с 800 реальными товарными страницами превратился в монстра на 5 000 адресов. После очистки — настройки canonical, закрытия параметров в Яндекс Вебмастере и правки robots.txt — органический трафик вырос на 40% за два месяца. Без единой новой статьи, без новых ссылок. Просто убрали мусор.
Пагинация
Страницы пагинации (/blog/page/2/, /blog/page/3/) часто наследуют Title и Description от первой страницы. В результате: «Блог компании — Название сайта» стоит на /blog/, /blog/page/2/, /blog/page/3/ и так далее. Поисковик видит десять страниц с одинаковым заголовком и не понимает, какую из них показать.
Версии с www и без www, http и https
Казалось бы, это базовая настройка. Но до сих пор встречаю сайты, где работают все четыре версии:
http://site.ruhttps://site.ruhttp://www.site.ruhttps://www.site.ru
Это четыре полных копии сайта. Если на сайте 200 страниц, поисковик видит 800.
Trailing slash: со слэшем и без
/uslugi/seo и /uslugi/seo/ — технически разные URL. Если сервер отдаёт контент по обоим адресам без редиректа, каждая страница существует в двух копиях. На сайте в 300 страниц это мгновенно превращается в 600.
Индексация технических страниц
Страницы корзины, личного кабинета, результатов поиска по сайту, превью для печати — всё это часто попадает в индекс. На одном медицинском проекте я нашёл в индексе Яндекса 120 страниц внутреннего поиска вида /search/?q=стоматолог, /search/?q=имплантация. Каждая с Title «Результаты поиска — Клиника [Название]». Сто двадцать дублей заголовка.
Последствия: что происходит с сайтом, заражённым дублями
Дубли не ломают сайт мгновенно. Они работают как хроническое заболевание: симптомы нарастают постепенно, и к моменту, когда владелец замечает проблему, ситуация уже серьёзная.
Краулинговый бюджет уходит в мусор
У каждого сайта есть лимит на количество страниц, которые поисковый робот готов обойти за одно посещение. Это называется краулинговый бюджет. Если робот тратит его на обход 4 000 фантомных URL вместо 800 реальных — ваши новые статьи и товары просто не попадают в индекс вовремя. Или не попадают вообще.
Проверить легко: откройте Яндекс Вебмастер, раздел «Индексирование» и «Статистика обхода». Если робот обходит в три раза больше страниц, чем у вас реально существует — у вас проблема.
Каннибализация запросов
Когда несколько страниц оптимизированы под один и тот же запрос (или получают одинаковые метатеги), они начинают конкурировать друг с другом. Поисковик не понимает, какую страницу показать, и в итоге показывает не ту, которую вы хотели, — или вообще ни одну.
Пример из моей практики: у стоматологической клиники было три страницы с Title, содержащим «имплантация зубов»: основная услуга, статья в блоге и страница с ценами. Все три попадали в индекс, все три боролись за один запрос. Ни одна не поднималась выше 20-й позиции. После того как мы оставили один основной документ, а на остальных поменяли Title и расставили canonical — целевая страница вошла в топ-7 за четыре недели.
Выпадение из индекса
Яндекс умеет определять дубли и помечает их статусом «Дубль» в разделе «Исключённые страницы». Но алгоритм не всегда выбирает правильный оригинал. Иногда в индексе остаётся страница с UTM-параметром, а ваша красивая целевая страница с CTA и формой заявки улетает в исключённые. Вы теряете трафик, не зная почему.
Размытие ссылочного веса
Если на сайт ведут обратные ссылки, но часть из них указывает на дублированные URL — ссылочный вес делится между копиями. Вместо одной сильной страницы получается пять слабых. В конкурентных нишах это разница между первой страницей выдачи и третьей.
Как найти дубли: пошаговая инструкция
Прежде чем лечить, нужно поставить диагноз. Вот четыре метода, которые я использую на каждом проекте.
Операторы поиска: быстрая проверка за 2 минуты
Самый простой способ — поисковые операторы. Откройте Яндекс и введите:
site:vash-site.ru intitle:"Купить кроссовки"
Если по одному и тому же вхождению в Title находится больше одной-двух страниц — у вас дубль. Повторите для основных коммерческих запросов. Это занимает несколько минут, но даёт моментальное понимание масштаба проблемы.
Для проверки Description используйте оператор:
site:vash-site.ru "Ваш текст Description"
Если находится больше одной страницы — Description дублируется.
Яндекс Вебмастер: раздел «Исключённые страницы»
Это мой основной инструмент диагностики дублей. Путь: Яндекс Вебмастер → Индексирование → Страницы в поиске → Исключённые. Здесь Яндекс прямо показывает страницы, которые он считает дублями, и указывает URL оригинала, который он выбрал.
На что обращать внимание:
- Статус «Дубль» — Яндекс нашёл другую страницу с таким же содержимым и оставил её вместо текущей.
- Статус «Не выбрано каноническое» — вы указали canonical, но Яндекс с ним не согласился.
- Количество исключённых — если исключённых больше, чем проиндексированных, сайт серьёзно раздут.
Также загляните в раздел «Индексирование → Параметры URL». Здесь можно увидеть, какие GET-параметры Яндекс уже обнаружил, и сразу настроить их обработку (об этом ниже).
Google Search Console: отчёт «Страницы»
В GSC (Google Search Console) откройте отчёт «Страницы» (ранее «Покрытие»). Фильтруйте по статусу «Исключено» и ищите причины:
- «Дубликат без канонической страницы, выбранной пользователем» — Google нашёл дубль, canonical не указан.
- «Дубликат: Google выбрал каноническую страницу, отличную от указанной пользователем» — вы указали canonical, но Google решил иначе.
- «Дубликат: отправленный URL не выбран в качестве канонического» — URL из Sitemap оказался дублем.
Обратите внимание: если ваш проект нацелен на аудиторию в России, основным инструментом анализа будет Яндекс Вебмастер. Google Search Console полезен как дополнительный источник данных, особенно если у вас есть аудитория из СНГ и дальнего зарубежья.
Screaming Frog: полный технический аудит
Для системного анализа я использую Screaming Frog SEO Spider. Запускаете полный обход сайта, затем переходите во вкладку «Page Titles» или «Meta Description» и сортируете по столбцу «Duplicate». Программа сразу группирует страницы с одинаковыми метатегами и показывает, сколько дублей у каждого.
Бесплатная версия Screaming Frog обходит до 500 URL — для небольшого сайта этого достаточно. Для крупных проектов нужна лицензия (стоимость оплачивается отдельно от услуг SEO-специалиста).
Python-скрипт: вайб-кодинг для автоматизации
Когда на проекте тысячи страниц и стандартных инструментов не хватает, я пишу собственные скрипты на Python. Это то, что я называю вайб-кодинг — создание рабочих инструментов с помощью AI за считанные минуты. Не нужно быть программистом: достаточно описать задачу, и Claude или GPT сгенерирует готовый скрипт.
Вот логика типичного скрипта для поиска дублей метатегов:
- Берём список URL из Sitemap.xml (парсим его библиотекой
requests+xml.etree). - Обходим каждый URL и извлекаем Title и Description из HTML (через
BeautifulSoup). - Складываем результаты в таблицу (через
pandas). - Группируем по Title — если у одного Title больше одного URL, это дубль.
- Экспортируем в Excel с цветной разметкой дублей.
На выходе — таблица, где в одном столбце Title, в другом — все URL с этим Title, в третьем — количество дублей. Скрипт обходит 3 000 страниц за 10-15 минут и выдаёт готовый отчёт, который можно сразу отправить разработчику.
Преимущество такого подхода перед Screaming Frog — полная кастомизация. Можно добавить проверку canonical, сравнение H1 с Title, анализ длины Description, проверку ответов сервера — всё в одном прогоне. На моём сайте trigub.ru/catalog-of-tools/ я собрал каталог подобных инструментов, включая SERP Architect для генерации SEO-контента на основе анализа выдачи.
Как устранить дубли: пошаговое решение
Диагностика завершена, список дублей перед глазами. Теперь — лечение. Порядок действий зависит от типа проблемы.
Canonical: указываем поисковику правильный оригинал
Тег <link rel="canonical" href="https://site.ru/target-page/"> в секции <head> каждой страницы говорит поисковику: «Вот оригинал, индексируй его, а текущую страницу считай копией».
Правила расстановки canonical:
- Каждая страница должна иметь canonical — даже если она не дубль. Canonical, указывающий сам на себя (self-referencing), — это нормальная и рекомендуемая практика.
- Canonical должен быть абсолютным URL — с протоколом и доменом:
https://site.ru/page/, а не/page/. - Один canonical на страницу — если на странице два тега canonical, поисковик проигнорирует оба.
- Canonical не должен вести на 404 или редирект — только на реально существующую, доступную страницу с кодом ответа 200.
В WordPress с Yoast SEO canonical настраивается в метабоксе каждой записи или страницы, поле «Canonical URL». Для массовой настройки удобнее использовать шаблоны Yoast или задать правила через functions.php.
Параметры URL в Яндекс Вебмастере
Яндекс Вебмастер позволяет указать, как обрабатывать GET-параметры. Путь: Индексирование → Параметры URL. Здесь вы видите список всех параметров, которые робот обнаружил на вашем сайте.
Для каждого параметра можно выбрать действие:
- «Не влияет на содержимое страницы» — для UTM-меток, идентификаторов сессий, реферальных кодов. Яндекс будет игнорировать эти параметры и не создавать отдельные записи в индексе.
- «Определяет содержимое страницы» — для параметров, которые реально меняют контент (например,
?product_id=123).
На практике: почти все utm_-параметры, параметры сортировки (sort, order, orderby) и идентификаторы сессий (sid, session_id, PHPSESSID) нужно пометить как не влияющие на содержимое. Это моментально сокращает количество «страниц» в индексе.
Robots.txt: закрываем технические разделы
Robots.txt — это файл с инструкциями для поисковых роботов, который лежит в корне сайта. С его помощью можно закрыть от индексации целые разделы:
User-agent: *
Disallow: /cart/
Disallow: /checkout/
Disallow: /search/
Disallow: /wp-admin/
Disallow: /*?s=
Disallow: /*?sort=
Disallow: /*?filter_
Важный нюанс: Disallow в robots.txt не гарантирует удаление из индекса. Робот может не заходить на страницу, но если на неё есть внешние ссылки — она всё равно может попасть в индекс. Для надёжного удаления используйте мета-тег <meta name="robots" content="noindex, follow"> на самой странице.
Разница между robots.txt и noindex:
- Robots.txt — запрещает роботу заходить на страницу. Быстро, но ненадёжно.
- Noindex — робот заходит, видит метатег и удаляет страницу из индекса. Надёжно, но робот тратит ресурсы на обход.
Оптимальная стратегия: robots.txt для массовых закрытий (тысячи параметрических URL), noindex — для отдельных страниц, которые должны быть доступны пользователям, но не поисковикам (корзина, личный кабинет).
301-редиректы: устраняем дубли протоколов и слэшей
Для проблем с www/без www, http/https и trailing slash решение одно — 301-редирект. Все вариации должны перенаправлять на один канонический формат.
Пример для .htaccess (Apache):
# Редирект с http на https
RewriteCond %{HTTPS} off
RewriteRule ^(.*)$ https://%{HTTP_HOST}/$1 [R=301,L]
# Редирект с www на без www
RewriteCond %{HTTP_HOST} ^www.(.+)$ [NC]
RewriteRule ^(.*)$ https://%1/$1 [R=301,L]
Для Nginx логика аналогичная, только синтаксис другой. Если не уверены в настройках сервера — обратитесь к разработчику или хостинг-провайдеру. Неправильный редирект может положить весь сайт.
Уникализация пагинации
Страницы пагинации должны иметь уникальные Title. Вместо одинакового «Блог — Компания» на каждой странице используйте шаблон:
- Страница 1: «Блог о SEO — Компания»
- Страница 2: «Блог о SEO — Страница 2 — Компания»
- Страница 3: «Блог о SEO — Страница 3 — Компания»
В WordPress с Yoast SEO это настраивается в шаблонах Title через переменную %%page%%. Если используете другой плагин или собственную тему — добавьте номер страницы в Title программно через хук wp_title или document_title_parts.
Для Description на страницах пагинации рекомендую ставить noindex или указывать canonical на первую страницу раздела. Это зависит от объёма контента: если на каждой странице пагинации уникальные товары — лучше noindex с follow, чтобы ссылки на товары по-прежнему работали.
Уникализация метатегов: шаблоны, которые работают
Убрать дубли URL — половина задачи. Вторая половина — сделать Title и Description уникальными на каждой странице. Для сайтов с сотнями и тысячами страниц вручную это делать нереально. Нужны шаблоны.
Шаблоны Title для интернет-магазинов
Хороший Title для товарной страницы содержит: название товара + ключевой атрибут + действие + бренд/город. Примеры:
Кроссовки Nike Air Max 90 черные — купить в Москве | [Магазин]Плитка керамогранит Italon 60x60 — цена от 1 200 руб/м2 | [Магазин]
Для категорий: название категории + ключевое действие + фильтр (если есть) + бренд. Пример:
Беговые кроссовки — каталог с ценами, купить с доставкой | [Магазин]
Длина Title — до 60-70 символов для Яндекса. Всё, что длиннее, обрежется в сниппете.
Шаблоны Description
Description должен дополнять Title, а не дублировать его. Хороший Description содержит: выгоду или УТП + конкретику (цена, наличие, сроки) + призыв к действию.
Пример для товара:
Кроссовки Nike Air Max 90 в наличии. Размеры 39-46. Бесплатная доставка по Москве за 1 день. Гарантия оригинала. Закажите с примеркой.
Длина Description — до 155-160 символов. Яндекс может подставить свой текст вместо вашего, но правильно заполненный Description увеличивает шансы на привлекательный сниппет.
Приоритеты: с чего начать, если дублей тысячи
На крупных проектах невозможно исправить всё за один день. Вот мой порядок приоритетов, который я выработал на десятках проектов:
- 301-редиректы для протоколов и www — решается за час, эффект максимальный. Устраняет полное дублирование всего сайта.
- Настройка параметров URL в Яндекс Вебмастере — занимает 15 минут, убирает тысячи фантомных URL из индексации.
- Canonical на всех страницах — в WordPress с Yoast SEO это делается автоматически, нужно только проверить корректность.
- Robots.txt для технических разделов — корзина, поиск, личный кабинет, предпросмотр.
- Уникализация Title и Description — шаблоны через SEO-плагин для массовых страниц, ручная правка для ключевых.
- Noindex для страниц пагинации, тегов, архивов дат — часто забытый источник дублей.
Весь процесс на среднем сайте (300-500 страниц) занимает 2-3 дня работы. На крупном e-commerce проекте — одну-две недели. Но результат ощущается уже через 2-4 недели, когда поисковик переобходит сайт и обновляет индекс.
Профилактика: как не допустить повторного появления дублей
Устранить дубли один раз — недостаточно. Они возвращаются при каждом обновлении CMS, добавлении нового плагина или изменении структуры каталога. Вот что нужно делать регулярно:
- Ежемесячный обход Screaming Frog (или собственным Python-скриптом) — проверка на новые дубли Title и Description.
- Мониторинг «Исключённых страниц» в Яндекс Вебмастере — раз в две недели. Если количество исключённых растёт — ищите источник.
- Проверка robots.txt после обновлений — некоторые плагины WordPress перезаписывают robots.txt при обновлении.
- Аудит нового контента перед публикацией — проверяйте, что Title и Description уникальны. Звучит очевидно, но на практике при массовой загрузке товаров этот шаг часто пропускают.
- Контроль Sitemap.xml — в нём должны быть только страницы с кодом 200 и без параметров. Если ваш Sitemap содержит URL с UTM-метками — исправьте генерацию.
SEO — это не разовая акция, а постоянная гигиена. Как в медицине: можно вылечить кариес, но без регулярной чистки он вернётся. Сайт требует такого же внимания.
Уберите мусор — и трафик пойдёт
Дубли метатегов и URL — это не экзотическая проблема для программистов. Это одна из самых распространённых причин, почему сайты с хорошим контентом и нормальным ссылочным профилем не растут в поиске. Вы можете писать лучшие статьи в нише, но если поисковик тратит ресурсы на обход тысяч мусорных страниц — ваш контент просто не доходит до выдачи.
Проверьте свой сайт прямо сейчас. Откройте Яндекс Вебмастер, загляните в «Исключённые страницы». Если там больше 10% от общего количества страниц помечены как дубли — у вас есть работа. И чем раньше вы за неё возьмётесь, тем быстрее увидите результат.
Если не хотите разбираться в этом самостоятельно — я провожу технический SEO-аудит, в рамках которого нахожу и устраняю все виды дублей. Подробности на странице SEO-аудит.
Вопросы и ответы
Разберём ваш сайт — покажу точки роста и план действий. Записаться на консалтинг.
Что такое дубли метатегов и чем они опасны для SEO?
Дубли метатегов — это ситуация, когда несколько страниц сайта имеют одинаковые Title или Description. Поисковик не может определить, какая из этих страниц наиболее релевантна запросу пользователя, и в результате может не показать ни одну из них на высоких позициях. Это приводит к потере трафика, каннибализации запросов и неэффективному расходу краулингового бюджета.
Как быстро проверить сайт на дубли Title?
Самый быстрый способ — использовать поисковый оператор site:vash-site.ru intitle:"ваш заголовок" в Яндексе. Если по одному Title находится несколько страниц — у вас дубль. Для полного анализа используйте Screaming Frog (бесплатная версия обходит до 500 URL) или раздел «Исключённые страницы» в Яндекс Вебмастере — там дубли помечены отдельным статусом.
Влияют ли UTM-метки на появление дублей в индексе?
Да, и это одна из самых частых причин. Каждый URL с UTM-параметром (?utm_source=yandex&utm_medium=cpc) воспринимается поисковиком как отдельная страница. Если на сайт идёт трафик из нескольких рекламных каналов — количество фантомных URL может вырасти в разы. Решение: настроить обработку UTM-параметров в Яндекс Вебмастере и указать canonical на основную страницу без параметров.
Чем отличается canonical от noindex для борьбы с дублями?
Canonical — это рекомендация поисковику: «считай оригиналом вот эту страницу». Поисковик может её учесть, а может проигнорировать. Noindex — это директива: «не включай эту страницу в индекс». Canonical используют, когда страница-дубль нужна пользователям (например, версия с фильтром), а noindex — когда страница техническая и пользователям не нужна (корзина, результаты поиска).
Сколько времени нужно, чтобы увидеть результат после устранения дублей?
Первые изменения в индексе видны через 1-2 недели, когда поисковый робот переобходит исправленные страницы. Ощутимый рост позиций и трафика обычно наступает через 4-8 недель. Скорость зависит от размера сайта, частоты обхода роботом и масштаба проблемы. На одном из моих проектов трафик вырос на 40% за два месяца после устранения 4 000 фантомных URL.
Можно ли решить проблему дублей только через robots.txt?
Нет, robots.txt — это не панацея. Он запрещает роботу заходить на страницу, но не гарантирует удаление из индекса. Если на закрытую через robots.txt страницу ведут внешние ссылки, она всё равно может попасть в индекс (без содержимого, но с Title из ссылки). Для надёжного решения нужна комбинация: robots.txt для массовых закрытий, canonical для указания оригинала, noindex для отдельных страниц и 301-редиректы для дублей протоколов.
Как часто нужно проверять сайт на дубли метатегов?
Рекомендую проводить проверку не реже одного раза в месяц. Дубли появляются при любых изменениях на сайте: обновлении CMS, добавлении новых товаров или страниц, установке плагинов, изменении структуры каталога. Мониторинг раздела «Исключённые страницы» в Яндекс Вебмастере занимает 5 минут — этого достаточно, чтобы заметить проблему на ранней стадии.
Какие CMS чаще всего создают дубли URL?
Проблема встречается на любых CMS, но особенно часто — на WordPress (из-за архивов дат, тегов и автора), на 1C-Битрикс (из-за параметров фильтрации в каталоге) и на самописных движках без SEO-модуля. В WordPress большинство дублей решается плагинами Yoast SEO или Rank Math. В Битрикс часто требуется доработка на уровне сервера и шаблонов. На самописных CMS — только ручная настройка или разработка модуля canonical и noindex.
Что делать, если Яндекс выбрал «неправильный» оригинал среди дублей?
Это распространённая ситуация: вы хотели, чтобы индексировалась страница /uslugi/seo/, а Яндекс выбрал оригиналом /uslugi/seo/?utm_source=direct. Решение: установите canonical на нужную страницу, убедитесь, что именно она указана в Sitemap.xml, и что внутренние ссылки ведут на неё (без параметров). Через 2-4 недели Яндекс пересмотрит свой выбор. Если не пересмотрел — напишите в поддержку Яндекс Вебмастера через форму обратной связи.
Нужно ли удалять страницы-дубли или достаточно закрыть их от индексации?
Зависит от типа дубля. Фантомные URL с GET-параметрами удалять не нужно — достаточно настроить canonical и параметры в Яндекс Вебмастере. Реальные страницы-дубли (например, две статьи на одну тему) лучше объединить: выбрать сильнейшую, перенести на неё полезный контент из второй, а вторую удалить с 301-редиректом на первую. Это сохранит ссылочный вес и избавит от каннибализации.