Достичь 100 баллов в Lighthouse — не цель, а иллюзия контроля. Михаил Сливинский из команды поиска Яндекса предложил нестандартный тест: если хотите понять реальную ценность ускорения сайта на полсекунды — сначала замедлите его на секунду и посмотрите что произойдёт. Если ничего — не тратьте команду разработчиков на микро-оптимизации. Тратьте её туда, где есть реальный бизнес-эффект.

Этот совет звучит провокационно. Но за ним стоит принципиально важная идея: технический SEO в 2026 году — это не про «зелёные зоны» в отчётах, а про рациональное распределение ресурсов.
«Иногда упарываются в техничку, выводят в суперзелёные зоны по скорости, тратят на это человека-месяцы. И когда меня спрашивают как убедить команду разработки что нам надо это делать — я честно не очень понимаю зачем это делать. Лучше сделайте другое действие: замедлите сайт, посмотрите что произойдёт. Если всем наплевать — не парьтесь с ускорением на полсекунды за год разработки.» — Михаил Сливинский, команда поиска Яндекса.
Что реально важно в техническом SEO 2026 года
Прежде чем говорить о том, что потеряло значимость — важно зафиксировать что остаётся критичным.
Индексируемость. Сайт который не может просканировать и проиндексировать Googlebot или Яндекс-бот — не существует для поиска. Это база, без которой ничего не работает. robots.txt, canonical, noindex, структура URL — всё это остаётся фундаментом.
Core Web Vitals (но не до фанатизма). LCP, CLS, INP влияют на ранжирование. Страница которая грузится 5 секунд — теряет пользователей до взаимодействия с контентом. Но разница между 2,1 секунды и 1,8 секунды LCP — скорее всего не изменит ваши позиции заметно.
Доступность для ИИ-краулеров. Новое в 2026 году — GPTBot, ClaudeBot, PerplexityBot сканируют сайты для нейровыдачи. Если стратегия включает GEO-присутствие — эти боты должны иметь доступ.
Мобильная адаптация. Более 60% поискового трафика в Яндексе — мобильный. Страница которая выглядит хорошо на десктопе но неудобна на мобильном — получает плохие поведенческие сигналы.
Таблица ИИ-краулеров: кто сканирует ваш сайт для нейровыдачи
В 2026 году помимо классических поисковых ботов сайты сканируют ИИ-краулеры. Каждый из них собирает данные для своей нейросетевой системы ответов. Вот кто они и что с ними делать:
| Краулер | Принадлежит | User-Agent | Для чего | Рекомендация |
|---|---|---|---|---|
| GPTBot | OpenAI | GPTBot/1.0 | Обучение и ответы ChatGPT, AI Overviews | Разрешить если нужно присутствие в ChatGPT |
| ClaudeBot | Anthropic | ClaudeBot/1.0 | Обучение модели Claude, ответы в Perplexity | Разрешить — растущая аудитория |
| PerplexityBot | Perplexity AI | PerplexityBot | Генерация ответов в поисковике Perplexity | Разрешить — даёт ссылки на источники |
| GoogleOther | GoogleOther | Сбор данных для AI Overviews и Gemini | Разрешить — часть экосистемы Google | |
| Bytespider | ByteDance | Bytespider | Обучение моделей TikTok и Doubao | Блокировать — нет пользы для RU-рынка, высокая нагрузка |
Как настроить доступ в robots.txt:
Чтобы разрешить нужных ботов и заблокировать ненужных, добавьте в robots.txt:
User-agent: GPTBot Allow: / User-agent: ClaudeBot Allow: / User-agent: PerplexityBot Allow: / User-agent: Bytespider Disallow: /
Важно: если в вашем robots.txt стоит общий Disallow для неизвестных ботов — ИИ-краулеры тоже будут заблокированы. Проверьте текущие правила. Многие CMS и плагины безопасности блокируют все неизвестные User-Agent по умолчанию.
Отдельный момент — Яндекс не выделяет отдельного ИИ-краулера. Нейровыдача Яндекса использует данные основного индекса YandexBot. Поэтому если YandexBot имеет доступ к контенту — нейровыдача тоже его видит.
Метод ухудшающего эксперимента
Это инструмент рациональной оценки ценности технических улучшений до того как их делать.
Как это работает:
- Выберите техническую метрику которую собираетесь улучшить (например, скорость загрузки)
- Вместо того чтобы сразу улучшать — намеренно ухудшите на тестовой выборке страниц
- Замерьте поведенческие метрики: bounce rate, время на сайте, глубина просмотра
- Проверьте позиции через 2-4 недели
- Если изменений нет — ценность улучшения под вопросом
Почему это работает: если ухудшение метрики на 30% не меняет поведение пользователей и позиции — то улучшение этой же метрики на 30% скорее всего тоже не даст ощутимого эффекта. Вы экономите ресурсы и принимаете решения на основе данных, а не гипотез.
Важные оговорки: ухудшающий эксперимент проводится временно и на ограниченной выборке. После замера — откат. И нельзя применять к критическим параметрам — если сайт и так медленный (LCP > 4 секунд), сначала нужно исправить, а не ухудшать.
Пошаговый протокол ухудшающего эксперимента
Ухудшающий эксперимент звучит рискованно, но при правильном подходе это самый честный способ оценить ROI технических правок. Вот протокол из 6 шагов на конкретном примере — тестируем ценность ускорения сайта.
Шаг 1: Выберите метрику и гипотезу. Гипотеза: «Ускорение LCP с 3,2 до 2,0 секунд увеличит конверсию на 15%». Обратная гипотеза: «Замедление LCP с 3,2 до 4,5 секунд снизит конверсию на 15%».
Шаг 2: Выделите тестовую группу. Выберите 10-20% страниц одного типа (например, карточки товаров). Контрольная группа — остальные 80% страниц того же типа. Важно: группы должны быть сопоставимы по трафику и конверсии.
Шаг 3: Реализуйте ухудшение. Для теста скорости — добавьте искусственную задержку рендеринга на тестовые страницы. Технически это может быть setTimeout на загрузку основного контента или добавление тяжёлого скрипта. Задержка должна быть заметной — не 100 мс, а 1-2 секунды.
Шаг 4: Зафиксируйте базовые метрики. До начала эксперимента запишите: bounce rate, время на сайте, глубину просмотра, конверсию, позиции в поиске — для обеих групп. Период замера: минимум 2 недели до эксперимента.
Шаг 5: Проведите эксперимент и замерьте. Длительность: 2-4 недели. Сравнивайте тестовую и контрольную группы по тем же метрикам. Если bounce rate тестовой группы не изменился, конверсия не упала, позиции не просели — ценность ускорения под вопросом.
Шаг 6: Откатите и примите решение. Верните всё как было. Проанализируйте данные. Если ухудшение на 40% не дало статистически значимого эффекта — вкладываться в улучшение на 40% нерационально. Перенаправьте ресурсы на задачи с доказанным ROI.
Пример из практики: интернет-магазин электроники замедлил карточки товаров на 1,5 секунды для тестовой группы. За 3 недели: bounce rate вырос на 2% (в пределах погрешности), конверсия не изменилась, позиции — без движения. Вывод: команда разработки занялась внедрением Schema.org для товаров вместо оптимизации скорости — и получила рост CTR на 12% за счёт расширенных сниппетов.
Что стало менее важным
Балл в Lighthouse и PageSpeed Insights. Это синтетический тест в изолированных условиях. Он полезен как диагностический инструмент, но балл 95 vs балл 100 не имеет практического значения для ранжирования.
Минификация JavaScript до последнего байта. Пользователи и поисковики нечувствительны к разнице в 5-10 кб. При этом агрессивная минификация усложняет поддержку кода.
Количество HTTP-запросов. В эпоху HTTP/2 и HTTP/3 множество параллельных запросов — норма. Обсессия со снижением их числа устарела.
Идеальная валидация HTML. Google и Яндекс парсят несовершенный HTML нормально. Время потраченное на устранение предупреждений валидатора — редко конвертируется в SEO-результат.
Что реально важно для 2026 года
Стабильность макета (CLS). Контент который «прыгает» при загрузке — один из худших UX-сигналов. Google активно учитывает Cumulative Layout Shift. Фиксированные размеры для изображений и рекламных блоков — важно.
Доступность для ИИ-краулеров через robots.txt. Новый приоритет: проверьте что GPTBot, ClaudeBot, PerplexityBot не заблокированы если вам нужно присутствие в AI-ответах.
JavaScript-рендеринг. Если контент загружается через JS и поисковый бот его не видит — это критическая проблема. Проверьте через Google Search Console → Проверка URL → «Просмотреть как Googlebot».
Структурированные данные. Schema.org разметка ускоряет понимание контента алгоритмами и ИИ-системами. Article, FAQPage, Product, LocalBusiness — приоритет в зависимости от типа сайта.
Crawl budget для крупных сайтов. Для сайтов от 10 000 страниц — управление тем, какие страницы сканирует бот, напрямую влияет на скорость индексации новых материалов.
Экономика технических правок
Сливинский сформулировал принцип который стоит за всем этим: «Рациональное поведение должно быть. Если вы чувствуете что там отличие под микроскопом надо изучать — это не то. Замерьте, посмотрите, и если эффекта нет — следующее.»
Практически это означает: перед каждой технической задачей задавать вопрос — а что произойдёт если мы это НЕ сделаем? Или если мы сделаем противоположное?
Время разработчиков ограничено. Выбор между «довести скорость с 90 до 95 баллов» и «создать 10 посадочных страниц под новые кластеры запросов» — обычно решается в пользу второго. Но это решение нужно принимать на основе данных, а не интуиции.
Чек-лист технического аудита 2026
Критично (проверить в первую очередь):
- [ ] Сайт индексируется корректно (нет случайного noindex или блокировки в robots.txt)
- [ ] LCP < 2,5 секунды на мобильных
- [ ] CLS < 0,1
- [ ] JS-контент рендерится для ботов
- [ ] Дубли закрыты canonical или noindex
Важно:
- [ ] ИИ-краулеры не заблокированы (если нужно GEO-присутствие)
- [ ] Schema.org разметка настроена для основных типов страниц
- [ ] XML Sitemap актуален и не содержит noindex-страниц
- [ ] Мобильная версия функциональна
Проверить через ухудшающий эксперимент перед вложением ресурсов:
- [ ] Дальнейшее ускорение сверх текущих показателей
- [ ] Снижение количества HTTP-запросов
- [ ] Дополнительная минификация
Куда реально тратить ресурсы разработки: топ-5 задач с максимальным ROI
Если бюджет разработки ограничен (а он всегда ограничен) — вот пять технических SEO-задач которые дают максимальную отдачу. Порядок — от наибольшего ROI к наименьшему.
1. Исправление проблем с индексацией. ROI: максимальный. Если страницы не попадают в индекс — весь остальной SEO бессмысленен. Проверьте: случайные noindex в мета-тегах, блокировки в robots.txt, канонические ссылки указывающие не туда, ошибки серверных редиректов. Одно исправление может открыть десятки страниц для поиска.
2. Внедрение Schema.org разметки. ROI: высокий. Структурированные данные дают расширенные сниппеты в выдаче (звёздочки рейтинга, цены, FAQ-аккордеоны). Это увеличивает CTR на 15-30% без изменения позиций. Приоритетные типы: Product, FAQPage, Article, LocalBusiness, HowTo. Для ИИ-систем Schema.org — основной способ быстро понять содержание страницы.
3. Оптимизация LCP до приемлемого уровня. ROI: средне-высокий. Если LCP больше 4 секунд — это критическая проблема, исправляйте. Если LCP 2-3 секунды — это приемлемо, не тратьте ресурсы на доведение до 1,5. Основные рычаги: оптимизация изображений (WebP, lazy loading), предзагрузка критических ресурсов, серверный кэш.
4. Управление краулинговым бюджетом. ROI: высокий для крупных сайтов (10 000+ страниц). Для маленьких сайтов — не приоритет. Задачи: убрать из индекса мусорные страницы (фильтры, пагинация, дубли), настроить XML Sitemap с приоритетами, оптимизировать внутреннюю перелинковку чтобы бот быстрее находил важные страницы.
5. Настройка доступа для ИИ-краулеров. ROI: растущий. Сегодня это инвестиция в будущее. Проверьте robots.txt, убедитесь что контент доступен без JS-рендеринга, добавьте структурированные данные. Эти действия занимают часы, а не недели — и открывают канал который конкуренты пока игнорируют.
Все остальные технические задачи — после этих пяти. Если первые пять решены и бюджет остался — тогда переходите к микро-оптимизациям. Но не раньше.
Часто задаваемые вопросы
Нужно ли стремиться к 100 баллам в Lighthouse?
Нет. Нужно стремиться к тому чтобы технические проблемы не были причиной потери позиций и трафика. Для большинства сайтов — это диапазон 70-90 баллов. Разница между 90 и 100 измеряется микросекундами и не влияет на реальное поведение пользователей.
Как понять что техническое SEO уже не сдерживает рост?
Если позиции не растут при хорошей технической базе и качественном контенте — проблема скорее в ссылочном профиле, поведенческих факторах или конкурентности ниши. Технический аудит тогда только подтверждает: «здесь всё нормально, ищите проблему в другом месте».
Как приоритизировать техническое SEO для ограниченного бюджета разработки?
Сначала критические проблемы с индексацией, потом Core Web Vitals (если они плохие), потом структурированные данные. Всё что улучшает показатели с хороших до отличных — в самый конец очереди или под вопрос.
Что такое ухудшающий эксперимент в SEO?
Это метод проверки ценности технического улучшения: вместо оптимизации вы временно ухудшаете метрику на тестовой выборке страниц. Если поведенческие метрики и позиции не изменились — инвестиция в улучшение под вопросом. Метод экономит ресурсы разработки.
Нужно ли открывать доступ для GPTBot и ClaudeBot?
Если вам важно присутствие в AI-ответах (ChatGPT, Claude, Perplexity) — да. Проверьте robots.txt: GPTBot, ClaudeBot, PerplexityBot не должны быть заблокированы. Если GEO-присутствие не в приоритете — можно заблокировать для экономии краулингового бюджета.
Как понять, что техническое SEO уже не сдерживает рост?
Если позиции не растут при хорошей технической базе и качественном контенте — проблема в ссылочном профиле, ПФ или конкурентности ниши. Технический аудит тогда подтверждает: здесь всё нормально, ищите причину в другом.
INP заменил FID — в чём разница?
FID (First Input Delay) измерял только задержку первого взаимодействия. INP (Interaction to Next Paint) измеряет задержку ВСЕХ взаимодействий на странице и берёт худшее значение. INP строже и точнее отражает реальный UX. Google перешёл на INP в марте 2024.
Какой бюджет нужен на технический аудит?
Технический SEO-аудит сайта до 100 страниц — от 15 000 ₽. Для крупных сайтов (1000+ страниц) — от 30 000 ₽. Аудит включает: индексация, скорость, мобильность, дубли, структура, Schema.org. Результат — приоритизированный список задач.