Современный маркетинг вступает в эру генеративного поиска. Рекламодатели и владельцы сайтов всё чаще слышат аббревиатуры GEO (Generative Engine Optimization) и AEO (Answer Engine Optimization), но за редким исключением забывают, что любая LLM (Large Language Model) остаётся вероятностной системой. В отличие от традиционного поиска, где результаты запроса детерминированы и воспроизводимы, нейросеть каждый раз генерирует новый ответ. Даже для одного пользователя с одного устройства выдача может различаться без учёта персонализации.
Это создаёт иллюзию, что SEO перестало быть базой. На практике ситуация обратная. Большинство современных ИИ-помощников, включая ChatGPT, Google SGE (Search Generative Experience) и Яндекс.Алису, работают по единой схеме. Сначала запускается классический поиск — в Google, Bing или Яндексе. Затем LLM анализирует найденные документы и на их основе генерирует связный ответ. Именно этот процесс называется grounding (заземление). Без качественных и авторитетных результатов поиска генерация становится бессмысленной.
Многочисленные эксперименты с видимостью в ChatGPT подтверждают этот тезис. Когда сайт теряет позиции в обычном Google, его упоминаемость в генеративных ответах синхронно снижается. Это не всегда мгновенная корреляция, но устойчивая зависимость, которую мы наблюдаем на протяжении последних полутора лет. Таким образом, фундаментом для GEO остаётся классическое SEO.
Чтобы нейросеть уверенно порекомендовала ваш бренд или продукт, она должна увидеть согласие в источниках. В технической среде это явление называют консенсусом. LLM не проводит независимого расследования. Она оценивает распределение мнений в индексируемых документах. Если 7 из 10 источников в поисковой выдаче утверждают, что компания ненадёжна, ответ модели будет содержать формулировку: «существуют опасения относительно надёжности компании X».
Именно поэтому тональность упоминаний становится критической. Нейросеть не способна отличить ироничный комментарий от экспертного заключения, если они статистически уравновешены. Она работает с вероятностями. Чем выше доля позитивных и нейтрально-фактологических источников, тем выше шанс, что в ответе LLM появится рекомендация. При этом не имеет значения, является ли источник конкурентом, блогером или отраслевым СМИ — важна его видимость в grounding-поиске.
В рамках GEO мы можем влиять на два типа документов. Первый — это обучающая выборка LLM, но доступ к ней ограничен. Второй и основной — результаты поиска Google, Bing и Яндекса, которые используются для заземления в реальном времени. Именно здесь SEO-специалист сохраняет контроль. Оптимизируя контент под традиционную поисковую выдачу, вы одновременно повышаете вероятность того, что ИИ-помощник увидит и улучшения в пользу вашего бренда.
Пользовательское поведение в ИИ-системах кардинально отличается от классического поиска. В Google или Яндексе человек вводит короткий запрос — два-три слова, реже фразу. В диалоге с LLM промпты становятся длиннее и разнообразнее. Пользователь описывает ситуацию, перечисляет условия, указывает ограничения и просит учесть контекст. Это не одиночный поисковый запрос, а полноценная диалоговая форма взаимодействия.
Такая эволюция поведения создаёт серьёзные трудности для аналитики. У издателей и маркетологов практически отсутствует статистика по пользовательским промптам. Мы не знаем, какие именно вопросы задают нейросети, как часто в ответах появляются наши сущности и бренды. Исключением пока остаётся Bing Webmaster Tools, который недавно выкатил отчёт о grounding-запросах. Но и там отображаются не исходные сообщения пользователей, а обработанные системой формулировки.
Ещё одна проблема — гиперперсонализация ответов. С распространением функций типа Google Personal Intelligence оценивать ситуацию становится сложнее. Нейросеть адаптирует генерацию под историю диалога, устройство, геолокацию и даже под предполагаемые намерения. Два специалиста одной компании, задавшие одинаковый промпт, могут получить разные ответы.
Это делает классический аудит позиций в ИИ-выдаче практически невозможным.
Наша система сама подберет вам исполнителей на услуги, связанные с разработкой сайта или приложения, поисковой оптимизацией, контекстной рекламой, маркетингом, SMM и PR.
Заполнить заявку
13470 тендеров
проведено за восемь лет работы нашего сайта.
Отрасль GEO находится на стадии зарождения, поэтому устоявшихся метрик пока не существует. Мы не можем точно измерить долю переходов из генеративных ответов в Google и Яндексе, потому что их реферер совпадает с обычным поиском. Пользователь, получивший сниппет от SGE, кликает на ссылку, и в аналитике этот визит ничем не отличается от стандартного органического перехода.
Кроме того, мы видим лишь часть трафика из отдельных ИИ-помощников. В распоряжении маркетолога обычно есть данные только по веб-версиям сервисов: alice.yandex.ru, gemini.google.com, chatgpt.com. Приложения остаются чёрным ящиком. Часто пользователь после этапа ресерча (исследовательского поиска) попадает на сайт не прямым кликом из ответа нейросети, а через брендовый запрос в поисковике или прямой ввод адреса. Это разрывает атрибуцию конверсий.
При таких ограничениях основной рабочей метрикой становятся доля упоминаний и тональность. В профессиональной среде это называют Share of Voice или Share of Model. По сути, мы проводим бенчмаркинг: рассчитываем вероятность присутствия бренда в ответе LLM на определённую группу промптов. Однако важно помнить, что поисковые системы сами стали самыми посещаемыми ИИ-помощниками. Их удельный вес в любых отчётах должен быть максимальным. Сравнивать ChatGPT и Google SGE без поправочных коэффициентов на объём аудитории — некорректно.
Основной вывод, который следует из текущей реальности GEO, прост и прагматичен:
SEO остаётся базой. Если ваш сайт теряет видимость в традиционной выдаче, он гарантированно теряет видимость в генеративных ответах. Никакая отдельная оптимизация под LLM не спасёт ситуацию, когда поисковая система не находит ваш документ или ранжирует его низко.
Второй вывод касается работы с контентом. Для GEO важнее не отдельная страница, а массив источников, формирующих консенсус. Вам нужно, чтобы не один ваш лендинг, а десятки упоминаний в разных авторитетных СМИ, блогах, форумах и каталогах создавали единую картину. При этом не стоит гнаться за сотнями слабых ссылок. LLM чувствительна к противоречиям: если 15 источников говорят хорошо, а 5 — плохо, итоговый ответ будет осторожным.
Третий вывод связан с ожиданиями по трафику. В ближайшие пару лет не стоит ждать, что ИИ-помощники станут драйверами прямых переходов. Их роль — ресерч и формирование доверия. Пользователь получает рекомендацию от нейросети, а затем идёт в поиск или напрямую на сайт по брендовому запросу. Учитывайте это при планировании бюджета и KPI.
В итоге стратегия на 2026 год и далее выглядит так. Укрепляйте классическое SEO. Работайте над тональностью упоминаний в сети. Используйте бенчмарки Share of Model как ориентир, но не как абсолютную истину. И помните, что заземление (grounding) через поиск остаётся единственным прозрачным и управляемым каналом влияния на LLM. Остальное — математическая вероятность, а не детерминированный результат.