Дубли от фильтров — проблема №1 для интернет-магазинов. Один каталог с 10 фильтрами по 5 значений генерирует миллионы URL-комбинаций. Google тратит краулинговый бюджет на мусор.
Диагностика
Проверьте в GSC → Покрытие → «Обнаружено, но не проиндексировано». Если там тысячи URL с параметрами ?color=red&size=xl&sort=price — проблема подтверждена.
Стратегия решения
1. Определите полезные фильтры. Какие комбинации фильтров имеют поисковый спрос? «Красные платья» (color=red) — имеет. «Красные платья размера XL по цене» — нет.
2. Для полезных — создайте ЧПУ:
/platya/krasnye/вместо/platya/?color=red- Уникальный title, H1, описание
- Canonical на себя
3. Для бесполезных — закройте:
robots.txt: Disallow для параметров сортировки, множественных фильтровnoindex, follow: для страниц фильтров без поискового спросаcanonical: все варианты с параметрами → основная страница категории
Предотвращение
- AJAX-фильтрация без изменения URL (но с fallback для SEO-страниц)
- Запрет индексации комбинаций из 2+ фильтров
- Регулярная проверка GSC → «Страницы» раз в месяц