Когда сайт «стоит» в поисковой выдаче, это часто не про то, что мало контента. Чаще проблема в том, что Google либо не может нормально обходить сайт, либо считает часть страниц дублями и мусором, либо не видит в страницах смысла показывать их по запросам.
Хорошая новость: большую часть таких причин можно увидеть в Google Search Console (GSC) за полчаса — без сложных инструментов.
Сначала откройте раздел «Индексирование → Страницы».
Здесь важны не «цифры ради цифр», а причины, по которым URL не попадают в индекс. Если исключённых страниц много — рост часто тормозит именно здесь.
Затем перейдите в «Индексирование → Файлы Sitemap» и посмотрите разницу между «отправлено» и «проиндексировано».
Большой разрыв почти всегда означает: в карте сайта есть мусор или дубли, и Google тратит обход на не то.
И в конце возьмите 5–10 главных страниц (категории/услуги/хиты/лидоген-страницы) и прогоните их через «Проверка URL». Там сразу видно: индексируется ли страница, какой canonical выбран, и нет ли блокировок.
Ищите в «Страницы» среди исключений. Это означает, что Google нашёл URL, но не стал индексировать. На практике такое чаще всего появляется, когда на сайте много параметров (utm, сортировки, пагинация) или дублей, и поисковик не видит смысла тратить ресурс на обработку каждого варианта. Что делать: убирать такие URL из sitemap, прекращать их размножение во внутренних ссылках и приводить сайт к одному стандарту страниц, которые действительно должны быть в поиске.
Ситуация похожая, но чуть жёстче: Google страницу уже посмотрел и всё равно решил не индексировать. Обычно это тонкие или шаблонные страницы, а ещё — «почти одинаковые» карточки/разделы, где отличия минимальные. Что делать: усиливать ценность страницы (уникальные блоки, ответы на вопросы, сравнение, характеристики, FAQ), а дубли — объединять или правильно канонизировать.
Это видно в «Проверка URL»: «канонический URL, указанный пользователем» и «канонический URL, выбранный Google». Если они разные, вы теряете управляемость: Google может индексировать не ту версию, которую вы продвигаете. Типовая причина — разные версии URL: со слэшем/без слэша, http/https, www/без www, плюс параметры. Решение почти всегда одно: выбрать единый стандарт, настроить 301 на него, и привести sitemap + внутренние ссылки к этому стандарту.
Проверьте «Файлы Sitemap»: если отправлено много, а проиндексировано мало — карта сайта часто «засорена». Google видит не список важных страниц, а свалку из дублей, редиректов и служебных URL. Правильная логика простая: в sitemap должны быть только страницы с кодом 200, которые открыты для индексации и являются каноническими.
В «Страницы» это видно как «Заблокировано robots.txt». Иногда это нормально (корзина, фильтры, параметры), но бывает, что запретили разделы услуг, категории или статьи — и сайт сам себе режет видимость. Решение: перепроверить robots.txt и убрать запреты с того, что должно ранжироваться. А мусорные URL лучше не «рубить топором», а грамотно не создавать и не ссылаться на них.
Часть сайтов теряет индексацию из-за настроек CMS или шаблона: метка noindex может появиться на разделах, тегах, пагинации, иногда даже на карточках. В GSC это чаще всего проявляется как «исключено» или как отсутствие страницы в индексе при том, что она доступна. Проверяется через «Проверка URL» и через технический просмотр мета-тегов/заголовков ответа сервера (если есть доступ).
Обычные 404 видно в «Страницы». Soft 404 — это когда страница отдаёт 200 OK, но по смыслу пустая: «товар не найден», «раздел пуст», «ничего не найдено». Google воспринимает это как мусор и не индексирует. Решение зависит от ситуации: если страницы не будет — честный 404/410. Если есть замена — 301 на ближайший релевантный аналог. Если это «пустой раздел», его нужно привести в нормальный вид или закрыть от индексации.
Наша система сама подберет вам исполнителей на услуги, связанные с разработкой сайта или приложения, поисковой оптимизацией, контекстной рекламой, маркетингом, SMM и PR.
Заполнить заявку
13337 тендеров
проведено за восемь лет работы нашего сайта.
В «Страницы» есть причина «Страница с перенаправлением». Если таких URL много, часто проблема не в редиректах как явлении, а в том, что на сайте продолжают жить «старые» адреса — в sitemap, в меню, в перелинковке. Что делать: убрать редиректные URL из sitemap и заменить внутренние ссылки на конечные страницы (200 OK). Плюс — сократить цепочки редиректов, если они есть.
Если в отчёте индексации встречаются 5xx, Google со временем начинает ходить реже: бот сталкивается с ошибками, снижает частоту обхода, часть страниц хуже обновляется и индексируется. Решение здесь не «про SEO», а про инфраструктуру: хостинг, нагрузка, кэширование, тяжёлые страницы, которые «роняют» сервер.
Раздел «Основные интернет-показатели» не всегда объясняет падение позиций напрямую, но часто объясняет отсутствие роста по бизнесу: люди заходят, ждут, закрывают — конверсия падает, поведенческие сигналы хуже. Если начинать быстро, обычно достаточно разобраться с тремя вещами: тяжёлые изображения/баннеры (LCP), тяжёлые скрипты и виджеты (INP), «прыгающие» блоки (CLS).
Это редкость, но если в GSC есть уведомления в разделах «Меры, принятые вручную» или «Проблемы безопасности», рост может быть заблокирован полностью или частично. Решение — исправлять причину и отправлять на проверку прямо в GSC.
Это видно в «Эффективность → Результаты поиска»: страницы индексируются, но не получают показов или кликов. Обычно причина не техническая: страница не закрывает интент, слабый Title/структура, нет нормальной внутренней поддержки ссылками, либо ниша конкурентная, а страница «тонкая». Решение: пересобрать структуру страницы под спрос, усилить смысловые блоки, и сделать так, чтобы важные страницы получали внутренние ссылки с релевантных материалов.
Если вы видите много «обнаружено/просканировано — не проиндексировано», расхождения canonical, большой разрыв в sitemap, soft 404 или 5xx — начинать нужно с чистки индексации и URL-стандарта. И только потом масштабировать контент.
В конце — короткий ненавязчивый оффер.
Если хотите, мы разберём ваш GSC и соберём понятный план: что именно мешает индексации и росту, какие URL-шаблоны создают мусор, что поправить в robots/sitemap/canonical/редиректах и что делать в первую очередь. Обратитесь — и мы скажем, какие доступы и данные нужны, чтобы стартовать.
Какие VK клипы снимать, чтобы попасть в рекомендации: 5 рубрик
Сбор семантического ядра для сайта – главные ошибки текстовой оптимизации
SEO-продвижение медицинских сайтов – услуги продвижения от агентства полного цикла Webstripe