Номинируйте кейсы на Workspace Digital Awards 2026. Прием заявок до 15 декабря по льготной цене, успейте принять участие!
Назад
SEO

Какой ИИ-контент хорошо ранжируется в поисковых системах

406 
 

Использование нейронки прилично упрощает создание контента, но не всегда такой материал способен привлекать трафик. Как поисковые системы Google и Яндекс вообще относятся к AI-контенту, по каким принципам его ранжируют и что нужно сделать чтобы улучшить позиции страниц в выдаче? Об этом сегодня и поговорим.

Какой ИИ-контент хорошо ранжируется в поисковых системах

Как AI-контент повлиял на трафик сайта: причины роста и падения

После появления чат-ботов типа ChatGPT и Claude, компании, как и многие агенства— запустили собственную контент-ферму. Команды подбирали ключевые запросы, формировали корректные промпты, массово генерировали ИИ-статьи для блога и создаваемые по шаблонам лендинги, практически не выполняя ручную вычитку.

Материалы были с низкой информативностью: много воды, слабая конкретика, часто переспам.Несмотря на это по формальным SEO-показателям тексты выглядели корректно: большой объем, хорошая структура, подзаголовков, прямые и разбавленные вхождения ключей. Даже такая стратегия действительно приносила результаты.

Ситуация изменилась в марте 2024 года после выхода обновления Google Helpful Content. Алгоритм начал жестко оценивать качество и пользу материалов, и в итоге трафик сайта снизился почти вдвое.

Почему произошёл обвал трафика

На что компании ссылались, причины падения позиций:

  • Google начал  жестко «штрафовать» сайты за использование AI-контента.
  • Быстрые публикации, было опубликовано много страниц с низкокачественными материалами.
  • пользователи не находили полезную информацию и сталкивались с большим количеством «воды».
  • переспам, тексты содержали избыточное количество ключевых слов.

Также сайты попали под фильтр из-за малополезного контента.

Как создавался этот контент

Для генерации использовали разные ИИ модели, например Claude AI.

  1. Загружали в нейросеть качественные статьи конкурентов.
  2. На их основе просила сформировать структуру будущего материала — outline.
  3. Ставила задачу написать текст по каждому пункту плана.
  4. Минимально вычитывала полученные фрагменты и объединяла их в единую статью.

Процесс выглядел логичным и визуально грамотным: — была собрана и кластеризована семантика ядра. — кластеры вручную распределили по страницам. — для каждого блока подготовили подробную структуру с ключами, LSI. — ИИ давали задачу писать по 2-4 смысловых блока за раз, чтобы упростить генерацию.

Производимые материалы соответствовали параметрам топовых статей: длина, структура, абзацы. Вхождений ключевых слов было больше нормы, но в рамках нормы — любые текстовые проверки показывали «зелёные» показатели.

В общем к СЕО и контенту претензий не было. Но главный недостаток — отсутствие реальной пользы для человека. Материалы создавались прежде всего для поисковых систем.

Почему это критично в текущих алгоритмах Google

Google ориентируется в первую очередь на пользовательский интент — на то, какое намерение стоит за поисковым запросом. Человек приходит на страницу с чёткой задачей: получить документ, найти ответ, увидеть таблицу, инструкцию, видео и т. д.


Разместите
тендер бесплатно

Наша система сама подберет вам исполнителей на услуги, связанные с разработкой сайта или приложения, поисковой оптимизацией, контекстной рекламой, маркетингом, SMM и PR.

Заполнить заявку 13201 тендер
проведено за восемь лет работы нашего сайта.


Именно интент определяет, какая информация должна быть на странице, чтобы она ранжировалась. Если текст не решает проблему пользователя, он автоматически становится не полезным — вне зависимости от того, создала ли его нейросеть или эксперт с ученой степенью.

Также если сайт открывается в разных профилях или агентство тестирует выдачу через разные браузеры, лучше использовать MoreLogin.  Чем точнее сайт соответствует ожиданиям аудитории в разных условиях, тем выше вероятность стабильного ранжирования.

Как вернуть трафик

Чтобы вернуть утраченный трафик, команды начали с переработки коммерческих страниц. Они были созданы с помощью ИИ и не проверялись из-за чего важные для пользователя сведения — стоимость услуг, примеры работ, ключевые преимущества — оказались спрятаны глубоко на странице, проще говоря клиент ничего дельного не видил. Контент переписали, убрали излишнюю «воду», усилили тематической лексикой, чтобы поисковая система точнее определяла релевантность запросам. Важные блоки перекинули к началу страницы, чтобы пользователь сразу видел ключевую информацию.

Повысили качество уже опубликованных статей. После появления более продвинутой модели Claude 3 Opus часть материалов сгенерировали заново, но на этот раз подключили живого редактора, который тщательно вычитывал тексты и приводил их в соответствие с человеческими ожиданиями. На страницах добавили контент, который интент посетителей, а не просто заполнял структуру.

Дополнительно провели очистку блога и удалили материалы которые больше не приносили никакой ценности.

В итоге уже через две недели сайты с такими изменениями вышели из-под фильтра Google Helpful Content, а поисковое ранжирование и трафик полностью восстановились. 

Итог

Если страница не отвечает на запрос, она не будет считаться ценной, независимо от формального качества.

Важно учитывать, что Google оценивает не только конкретную страницу, но и сайт в целом. Если на домене мусор большого объема слабых материалов, отдельные качественные статьи будут проигрывать более сильным конкурентам.

Также не рекомендуется создавать страницы под запросы, которые пользователь решает за несколько секунд: быстрее визиты негативно влияют на поведенческие факторы и ухудшают позиции сайта в выдаче.

Лучшее
Выскажите мнение
Авторизуйтесь, чтобы добавить свой комментарий.




440

Лучшие статьи

Поделиться: 0 1 0