На радаре Search Engine Land Сущности и AI в SEO: как объединить контент и SEO-команды

SEO-продвижение

Технический SEO 2026: почему 100/100 в Lighthouse — не гарантия трафика

Александр Тригуб — SEO-маркетолог
Александр Тригуб SEO-маркетолог · с 2010 · 1092 заказа на Kwork · 4.9★

Достичь 100 баллов в Lighthouse — не цель, а иллюзия контроля. Михаил Сливинский из команды поиска Яндекса предложил нестандартный тест: если хотите понять реальную ценность ускорения сайта на полсекунды — сначала замедлите его на секунду и посмотрите что произойдёт. Если ничего — не тратьте команду разработчиков на микро-оптимизации. Тратьте её туда, где есть реальный бизнес-эффект.

Техническое SEO — Lighthouse не гарантия трафика

Этот совет звучит провокационно. Но за ним стоит принципиально важная идея: технический SEO в 2026 году — это не про «зелёные зоны» в отчётах, а про рациональное распределение ресурсов.

«Иногда упарываются в техничку, выводят в суперзелёные зоны по скорости, тратят на это человека-месяцы. И когда меня спрашивают как убедить команду разработки что нам надо это делать — я честно не очень понимаю зачем это делать. Лучше сделайте другое действие: замедлите сайт, посмотрите что произойдёт. Если всем наплевать — не парьтесь с ускорением на полсекунды за год разработки.» — Михаил Сливинский, команда поиска Яндекса.

Что реально важно в техническом SEO 2026 года

Прежде чем говорить о том, что потеряло значимость — важно зафиксировать что остаётся критичным.

Индексируемость. Сайт который не может просканировать и проиндексировать Googlebot или Яндекс-бот — не существует для поиска. Это база, без которой ничего не работает. robots.txt, canonical, noindex, структура URL — всё это остаётся фундаментом.

Core Web Vitals (но не до фанатизма). LCP, CLS, INP влияют на ранжирование. Страница которая грузится 5 секунд — теряет пользователей до взаимодействия с контентом. Но разница между 2,1 секунды и 1,8 секунды LCP — скорее всего не изменит ваши позиции заметно.

Доступность для ИИ-краулеров. Новое в 2026 году — GPTBot, ClaudeBot, PerplexityBot сканируют сайты для нейровыдачи. Если стратегия включает GEO-присутствие — эти боты должны иметь доступ.

Мобильная адаптация. Более 60% поискового трафика в Яндексе — мобильный. Страница которая выглядит хорошо на десктопе но неудобна на мобильном — получает плохие поведенческие сигналы.

Таблица ИИ-краулеров: кто сканирует ваш сайт для нейровыдачи

В 2026 году помимо классических поисковых ботов сайты сканируют ИИ-краулеры. Каждый из них собирает данные для своей нейросетевой системы ответов. Вот кто они и что с ними делать:

Краулер Принадлежит User-Agent Для чего Рекомендация
GPTBot OpenAI GPTBot/1.0 Обучение и ответы ChatGPT, AI Overviews Разрешить если нужно присутствие в ChatGPT
ClaudeBot Anthropic ClaudeBot/1.0 Обучение модели Claude, ответы в Perplexity Разрешить — растущая аудитория
PerplexityBot Perplexity AI PerplexityBot Генерация ответов в поисковике Perplexity Разрешить — даёт ссылки на источники
GoogleOther Google GoogleOther Сбор данных для AI Overviews и Gemini Разрешить — часть экосистемы Google
Bytespider ByteDance Bytespider Обучение моделей TikTok и Doubao Блокировать — нет пользы для RU-рынка, высокая нагрузка

Как настроить доступ в robots.txt:

Чтобы разрешить нужных ботов и заблокировать ненужных, добавьте в robots.txt:

User-agent: GPTBot
Allow: /

User-agent: ClaudeBot
Allow: /

User-agent: PerplexityBot
Allow: /

User-agent: Bytespider
Disallow: /

Важно: если в вашем robots.txt стоит общий Disallow для неизвестных ботов — ИИ-краулеры тоже будут заблокированы. Проверьте текущие правила. Многие CMS и плагины безопасности блокируют все неизвестные User-Agent по умолчанию.

Отдельный момент — Яндекс не выделяет отдельного ИИ-краулера. Нейровыдача Яндекса использует данные основного индекса YandexBot. Поэтому если YandexBot имеет доступ к контенту — нейровыдача тоже его видит.

Метод ухудшающего эксперимента

Это инструмент рациональной оценки ценности технических улучшений до того как их делать.

Как это работает:

  1. Выберите техническую метрику которую собираетесь улучшить (например, скорость загрузки)
  2. Вместо того чтобы сразу улучшать — намеренно ухудшите на тестовой выборке страниц
  3. Замерьте поведенческие метрики: bounce rate, время на сайте, глубина просмотра
  4. Проверьте позиции через 2-4 недели
  5. Если изменений нет — ценность улучшения под вопросом

Почему это работает: если ухудшение метрики на 30% не меняет поведение пользователей и позиции — то улучшение этой же метрики на 30% скорее всего тоже не даст ощутимого эффекта. Вы экономите ресурсы и принимаете решения на основе данных, а не гипотез.

Важные оговорки: ухудшающий эксперимент проводится временно и на ограниченной выборке. После замера — откат. И нельзя применять к критическим параметрам — если сайт и так медленный (LCP > 4 секунд), сначала нужно исправить, а не ухудшать.

Пошаговый протокол ухудшающего эксперимента

Ухудшающий эксперимент звучит рискованно, но при правильном подходе это самый честный способ оценить ROI технических правок. Вот протокол из 6 шагов на конкретном примере — тестируем ценность ускорения сайта.

Шаг 1: Выберите метрику и гипотезу. Гипотеза: «Ускорение LCP с 3,2 до 2,0 секунд увеличит конверсию на 15%». Обратная гипотеза: «Замедление LCP с 3,2 до 4,5 секунд снизит конверсию на 15%».

Шаг 2: Выделите тестовую группу. Выберите 10-20% страниц одного типа (например, карточки товаров). Контрольная группа — остальные 80% страниц того же типа. Важно: группы должны быть сопоставимы по трафику и конверсии.

Шаг 3: Реализуйте ухудшение. Для теста скорости — добавьте искусственную задержку рендеринга на тестовые страницы. Технически это может быть setTimeout на загрузку основного контента или добавление тяжёлого скрипта. Задержка должна быть заметной — не 100 мс, а 1-2 секунды.

Шаг 4: Зафиксируйте базовые метрики. До начала эксперимента запишите: bounce rate, время на сайте, глубину просмотра, конверсию, позиции в поиске — для обеих групп. Период замера: минимум 2 недели до эксперимента.

Шаг 5: Проведите эксперимент и замерьте. Длительность: 2-4 недели. Сравнивайте тестовую и контрольную группы по тем же метрикам. Если bounce rate тестовой группы не изменился, конверсия не упала, позиции не просели — ценность ускорения под вопросом.

Шаг 6: Откатите и примите решение. Верните всё как было. Проанализируйте данные. Если ухудшение на 40% не дало статистически значимого эффекта — вкладываться в улучшение на 40% нерационально. Перенаправьте ресурсы на задачи с доказанным ROI.

Пример из практики: интернет-магазин электроники замедлил карточки товаров на 1,5 секунды для тестовой группы. За 3 недели: bounce rate вырос на 2% (в пределах погрешности), конверсия не изменилась, позиции — без движения. Вывод: команда разработки занялась внедрением Schema.org для товаров вместо оптимизации скорости — и получила рост CTR на 12% за счёт расширенных сниппетов.

Что стало менее важным

Балл в Lighthouse и PageSpeed Insights. Это синтетический тест в изолированных условиях. Он полезен как диагностический инструмент, но балл 95 vs балл 100 не имеет практического значения для ранжирования.

Минификация JavaScript до последнего байта. Пользователи и поисковики нечувствительны к разнице в 5-10 кб. При этом агрессивная минификация усложняет поддержку кода.

Количество HTTP-запросов. В эпоху HTTP/2 и HTTP/3 множество параллельных запросов — норма. Обсессия со снижением их числа устарела.

Идеальная валидация HTML. Google и Яндекс парсят несовершенный HTML нормально. Время потраченное на устранение предупреждений валидатора — редко конвертируется в SEO-результат.

Что реально важно для 2026 года

Стабильность макета (CLS). Контент который «прыгает» при загрузке — один из худших UX-сигналов. Google активно учитывает Cumulative Layout Shift. Фиксированные размеры для изображений и рекламных блоков — важно.

Доступность для ИИ-краулеров через robots.txt. Новый приоритет: проверьте что GPTBot, ClaudeBot, PerplexityBot не заблокированы если вам нужно присутствие в AI-ответах.

JavaScript-рендеринг. Если контент загружается через JS и поисковый бот его не видит — это критическая проблема. Проверьте через Google Search Console → Проверка URL → «Просмотреть как Googlebot».

Структурированные данные. Schema.org разметка ускоряет понимание контента алгоритмами и ИИ-системами. Article, FAQPage, Product, LocalBusiness — приоритет в зависимости от типа сайта.

Crawl budget для крупных сайтов. Для сайтов от 10 000 страниц — управление тем, какие страницы сканирует бот, напрямую влияет на скорость индексации новых материалов.

Экономика технических правок

Сливинский сформулировал принцип который стоит за всем этим: «Рациональное поведение должно быть. Если вы чувствуете что там отличие под микроскопом надо изучать — это не то. Замерьте, посмотрите, и если эффекта нет — следующее.»

Практически это означает: перед каждой технической задачей задавать вопрос — а что произойдёт если мы это НЕ сделаем? Или если мы сделаем противоположное?

Время разработчиков ограничено. Выбор между «довести скорость с 90 до 95 баллов» и «создать 10 посадочных страниц под новые кластеры запросов» — обычно решается в пользу второго. Но это решение нужно принимать на основе данных, а не интуиции.

Чек-лист технического аудита 2026

Критично (проверить в первую очередь):

  • [ ] Сайт индексируется корректно (нет случайного noindex или блокировки в robots.txt)
  • [ ] LCP < 2,5 секунды на мобильных
  • [ ] CLS < 0,1
  • [ ] JS-контент рендерится для ботов
  • [ ] Дубли закрыты canonical или noindex

Важно:

  • [ ] ИИ-краулеры не заблокированы (если нужно GEO-присутствие)
  • [ ] Schema.org разметка настроена для основных типов страниц
  • [ ] XML Sitemap актуален и не содержит noindex-страниц
  • [ ] Мобильная версия функциональна

Проверить через ухудшающий эксперимент перед вложением ресурсов:

  • [ ] Дальнейшее ускорение сверх текущих показателей
  • [ ] Снижение количества HTTP-запросов
  • [ ] Дополнительная минификация

Куда реально тратить ресурсы разработки: топ-5 задач с максимальным ROI

Если бюджет разработки ограничен (а он всегда ограничен) — вот пять технических SEO-задач которые дают максимальную отдачу. Порядок — от наибольшего ROI к наименьшему.

1. Исправление проблем с индексацией. ROI: максимальный. Если страницы не попадают в индекс — весь остальной SEO бессмысленен. Проверьте: случайные noindex в мета-тегах, блокировки в robots.txt, канонические ссылки указывающие не туда, ошибки серверных редиректов. Одно исправление может открыть десятки страниц для поиска.

2. Внедрение Schema.org разметки. ROI: высокий. Структурированные данные дают расширенные сниппеты в выдаче (звёздочки рейтинга, цены, FAQ-аккордеоны). Это увеличивает CTR на 15-30% без изменения позиций. Приоритетные типы: Product, FAQPage, Article, LocalBusiness, HowTo. Для ИИ-систем Schema.org — основной способ быстро понять содержание страницы.

3. Оптимизация LCP до приемлемого уровня. ROI: средне-высокий. Если LCP больше 4 секунд — это критическая проблема, исправляйте. Если LCP 2-3 секунды — это приемлемо, не тратьте ресурсы на доведение до 1,5. Основные рычаги: оптимизация изображений (WebP, lazy loading), предзагрузка критических ресурсов, серверный кэш.

4. Управление краулинговым бюджетом. ROI: высокий для крупных сайтов (10 000+ страниц). Для маленьких сайтов — не приоритет. Задачи: убрать из индекса мусорные страницы (фильтры, пагинация, дубли), настроить XML Sitemap с приоритетами, оптимизировать внутреннюю перелинковку чтобы бот быстрее находил важные страницы.

5. Настройка доступа для ИИ-краулеров. ROI: растущий. Сегодня это инвестиция в будущее. Проверьте robots.txt, убедитесь что контент доступен без JS-рендеринга, добавьте структурированные данные. Эти действия занимают часы, а не недели — и открывают канал который конкуренты пока игнорируют.

Все остальные технические задачи — после этих пяти. Если первые пять решены и бюджет остался — тогда переходите к микро-оптимизациям. Но не раньше.

Часто задаваемые вопросы

Нужно ли стремиться к 100 баллам в Lighthouse?

Нет. Нужно стремиться к тому чтобы технические проблемы не были причиной потери позиций и трафика. Для большинства сайтов — это диапазон 70-90 баллов. Разница между 90 и 100 измеряется микросекундами и не влияет на реальное поведение пользователей.

Как понять что техническое SEO уже не сдерживает рост?

Если позиции не растут при хорошей технической базе и качественном контенте — проблема скорее в ссылочном профиле, поведенческих факторах или конкурентности ниши. Технический аудит тогда только подтверждает: «здесь всё нормально, ищите проблему в другом месте».

Как приоритизировать техническое SEO для ограниченного бюджета разработки?

Сначала критические проблемы с индексацией, потом Core Web Vitals (если они плохие), потом структурированные данные. Всё что улучшает показатели с хороших до отличных — в самый конец очереди или под вопрос.

Что такое ухудшающий эксперимент в SEO?

Это метод проверки ценности технического улучшения: вместо оптимизации вы временно ухудшаете метрику на тестовой выборке страниц. Если поведенческие метрики и позиции не изменились — инвестиция в улучшение под вопросом. Метод экономит ресурсы разработки.

Нужно ли открывать доступ для GPTBot и ClaudeBot?

Если вам важно присутствие в AI-ответах (ChatGPT, Claude, Perplexity) — да. Проверьте robots.txt: GPTBot, ClaudeBot, PerplexityBot не должны быть заблокированы. Если GEO-присутствие не в приоритете — можно заблокировать для экономии краулингового бюджета.

Как понять, что техническое SEO уже не сдерживает рост?

Если позиции не растут при хорошей технической базе и качественном контенте — проблема в ссылочном профиле, ПФ или конкурентности ниши. Технический аудит тогда подтверждает: здесь всё нормально, ищите причину в другом.

INP заменил FID — в чём разница?

FID (First Input Delay) измерял только задержку первого взаимодействия. INP (Interaction to Next Paint) измеряет задержку ВСЕХ взаимодействий на странице и берёт худшее значение. INP строже и точнее отражает реальный UX. Google перешёл на INP в марте 2024.

Какой бюджет нужен на технический аудит?

Технический SEO-аудит сайта до 100 страниц — от 15 000 ₽. Для крупных сайтов (1000+ страниц) — от 30 000 ₽. Аудит включает: индексация, скорость, мобильность, дубли, структура, Schema.org. Результат — приоритизированный список задач.

Кто ведёт проект

Александр Тригуб — частный SEO-маркетолог. В поисковом маркетинге с 2010 года, предприниматель с 2001-го. В SEO пришёл из собственного бизнеса — знаю, как устроены продажи не из учебников, а из собственной выручки и расходов.

  • Специализация: медицина, B2B, e-commerce и локальные услуги — ниши, где каждый лид стоит дорого.
  • Подтверждённый опыт: 1092 заказа на Kwork (рейтинг 4.9 / 5) — подтверждённые отзывы, без учёта прямых клиентов. Проверить отзывы.
  • Формат: работаю напрямую, один специалист на проект — без менеджеров и субподрядных цепочек.
  • Отчётность: KPI по лидам и деньгам. Ежемесячный план/факт, а не PDF на 50 страниц.
15+лет в маркетинге
728отзывов
4.9рейтинг
1092заказов на Kwork

Нужно применить это к вашему сайту?

Сделаю короткий разбор и скажу, что из статьи реально даст эффект именно в вашей нише и регионе.

Полезное по теме

Все статьи блога → Все услуги →