Функция AI Overviews в Google Search генерирует десятки миллионов ошибочных ответов ежедневно, что подтвердили недавние тесты New York Times и стартапа Oumi. При огромном объеме запросов это приводит к массовой дезинформации.
AI Overviews от Google: как ИИ генерирует дезинформацию
Недавно Google запустил функцию AI Overviews, которая должна предоставлять пользователям быстрые и точные ответы, сгенерированные искусственным интеллектом. Идея хороша: получаешь выжимку информации, не переходя по ссылкам. Однако статистика по этой функции рисует тревожную картину. Анализ показал, что AI Overviews выдаёт миллионы ложных ответов каждый час. Это не единичные ошибки, а систематические провалы в точности.
New York Times и стартап Oumi провели независимые исследования, которые подтвердили эти опасения. Цифры впечатляют: 91% точности для Gemini 3 и 85% для Gemini 2.5. На первый взгляд, это высокие показатели. Но если учитывать 5 триллионов поисковых запросов в год, даже небольшая доля ошибок превращается в гигантский объем дезинформации. Мы говорим о десятках миллионов неверных ответов ежедневно. Пользователи получают недостоверные факты, а это подрывает доверие к поисковой системе.
Истоки проблемы: почему искусственный интеллект ошибается
Основная причина такого количества ошибок кроется в природе работы больших языковых моделей. Они обучаются на огромных массивах данных из интернета, включая форумы, блоги, новости и научные статьи. Проблема в том, что интернет наполнен не только проверенной информацией, но и фейками, мнениями и устаревшими данными. ИИ не всегда способен отличить факт от вымысла, особенно когда речь идёт о сложных, спорных или малоизвестных темах.
В моей практике я постоянно вижу, как алгоритмы, даже самые продвинутые, испытывают трудности с контекстом и нюансами. AI Overviews не исключение. Модель может правильно понять запрос, но дать ответ, основанный на неверных или неполных исходных данных. Отсюда и смешные, и порой опасные рекомендации, которые уже успели распространиться в сети. Например, инструкции по поеданию камней или добавлению клея в пиццу. Это уже не просто ошибки, а угроза здоровью и безопасности.
Последствия для SEO и AEO: что меняется для нас
Для SEO-специалистов эта новость имеет прямое значение. Если Google сам активно распространяет неверную информацию, то концепция E-E-A-T (Expertise, Experience, Authoritativeness, Trustworthiness) становится ещё более критичной. Мы всегда говорили о важности экспертности и доверия, но теперь это усиливается многократно. Моё наблюдение – теперь не просто желательно, а обязательно показывать, что ваш контент написан экспертом, подтверждать факты и ссылаться на авторитетные источники.
С другой стороны, сама идея AI Overviews пока не нашла широкого отклика у пользователей. Google пытается улучшить пользовательский опыт, но пока это больше похоже на эксперимент с непредсказуемыми результатами. Как специалист, я вижу, что сейчас компании должны сосредоточиться на создании действительно высококачественного, проверенного контента. Если ваш контент будет эталонным, то даже если ИИ соберет информацию, есть шанс, что она будет правильной. Иначе, ИИ возьмёт любую неточность из вашей или чужой статьи и выдаст её за истину.
Тайминг внедрения: почему Google поспешил
Возникает вопрос: почему Google выпустил AI Overviews в таком, казалось бы, «сыром» виде? Возможно, это связано с давлением конкурентов или желанием оставаться на передовой в гонке ИИ. Но это решение может дорого стоить поисковой системе, подрывая доверие пользователей. Люди привыкли доверять Google как источнику проверенной информации. Теперь это доверие будет медленно, но верно разрушаться.
Мне кажется, что Google пошел на этот риск, чтобы собрать реальные данные об использовании и ошибках. Скорее всего, они рассчитывают на быструю итерацию и доработку алгоритмов. Но для нас это означает, что некоторое время мы будем иметь дело с поисковой выдачей, где наравне с достоверными источниками стоят сгенерированные и не всегда корректные ответы. Стратегия поисковой оптимизации должна это учитывать.
Комментарий эксперта
Я согласен, проблема дезинформации от AI Overviews серьезнее, чем кажется многим. В России это пока меньше заметно, так как Яндекс Нейро активно развивается, но Google всё равно остается важным каналом трафика для многих бизнесов. В моей практике я вижу, как некорректные или неполные данные в выдаче Google могут влиять на поведение пользователей и снижать конверсию.
Сейчас критично важно фокусироваться на безупречной экспертности, авторитетности и достоверности контента (E-E-A-T). Не просто заявляем об экспертности, а подтверждаем её: указываем ФИО автора, его регалии, ссылаемся на исследования и официальные источники. Для проектов в тематиках YMYL (Your Money Your Life) – медицина, финансы, право – это абсолютно обязательное требование. Моим клиентам я всегда рекомендую проводить внутренний фактчекинг всего публикуемого контента перед запуском. Кроме того, стоит активно развивать собственный бренд и экспертную позицию. Это поможет выделиться на фоне ИИ-сгенерированных ответов и будет работать как фактор доверия. А если Google берёт текст с вашего сайта, то он должен быть максимально точным.
Что это значит для бизнеса
Если ваш бизнес зависит от онлайн-трафика и репутации, появление некорректных AI Overviews от Google может навредить. Рекомендую убедиться, что информация о вашем продукте или услуге в сети максимально точна и экспертна, чтобы ИИ Google не исказил её. Регулярно проверяйте, что искусственный интеллект Google выдает о вашем бренде и предложениях.
⚠️ Редакционное уведомление: отдельные факты в этой новости пока в процессе проверки независимыми источниками. При обнаружении неточностей материал будет обновлён. Источник: habr.com.