На радаре Search Engine Land Сущности и AI в SEO: как объединить контент и SEO-команды

Техническое SEO

Robots.txt: какие разделы закрывать обязательно?

Александр Тригуб

Robots.txt — инструмент управления краулингом, а не индексацией. Закрывайте то, что роботу не нужно видеть — и не более.

Что закрывать обязательно

  • Административные разделы: /wp-admin/, /admin/, /bitrix/admin/
  • Корзина и личный кабинет: /cart/, /account/, /checkout/
  • Внутренний поиск: /search?, /?s= — может генерировать бесконечные URL
  • Параметры сортировки: ?sort=, ?order=, ?view=
  • Множественные фильтры: URL с 2+ GET-параметрами фильтров
  • Служебные файлы: /cgi-bin/, /tmp/, *.sql, *.log

Что НЕ закрывать

  • CSS и JS: Google нужны для рендеринга страницы. Блокировка CSS/JS = робот видит «голый» HTML
  • Изображения: если хотите трафик из Google Images
  • Страницы с контентом: даже если они «неважные» — используйте noindex, а не Disallow

Шаблон robots.txt

User-agent: *
Disallow: /wp-admin/
Disallow: /cart/
Disallow: /checkout/
Disallow: /account/
Disallow: /*?s=
Disallow: /*?sort=
Disallow: /*&
Allow: /wp-admin/admin-ajax.php
Sitemap: https://site.ru/sitemap.xml

Не нашли ответ? Спросите!

Отвечаю лично в течение 24 часов. Лучшие вопросы публикую в этом разделе.

Другие вопросы

Кто ведёт проект

Александр Тригуб — частный SEO-маркетолог. В поисковом маркетинге с 2010 года, предприниматель с 2001-го. В SEO пришёл из собственного бизнеса — знаю, как устроены продажи не из учебников, а из собственной выручки и расходов.

  • Специализация: медицина, B2B, e-commerce и локальные услуги — ниши, где каждый лид стоит дорого.
  • Подтверждённый опыт: 1092 заказа на Kwork (рейтинг 4.9 / 5) — подтверждённые отзывы, без учёта прямых клиентов. Проверить отзывы.
  • Формат: работаю напрямую, один специалист на проект — без менеджеров и субподрядных цепочек.
  • Отчётность: KPI по лидам и деньгам. Ежемесячный план/факт, а не PDF на 50 страниц.
15+лет в маркетинге
728отзывов
4.9рейтинг
1092заказов на Kwork