Упали позиции сайта, что делать

Вы обнаружили, что у вашего сайта низкие позиции (или резко упали), что делать дальше? Здесь я рассмотрю, наверное, все возможные проблемы. Скорей всего ваша проблема здесь тоже перечислена, но вот сможете ли вы ее диагностировать, другой вопрос. Постарался писать подробно.

На позиции влияют разные факторы, которые мы будем по порядку проверять.

Определяем масштаб проблемы

Сначала нужно понять насколько серьезная проблема.

  1. Несколько запросов потеряли позиции.
  2. Все запросы с документа потеряли позиции.
  3. Весь сайт потерял позиции.

Если просел весь сайт, нет смысла копаться с отдельной страницей и надо анализировать факторы, которые относятся ко всему сайту.

Поднимаем историю действий

Первым делом надо посмотреть, что последнее время делали со страницей: меняли тексты, выкладывали фотографии, удалили или добавили информацию. Если что-то менялось и сайт упал в позициях после этого, то причина вероятно в изменениях.

Что могло поменяться вместе с контентом? Навскидку:

  1. Мог увеличиться показатель отказов, т.к. новый контент не устраивает пользователей (цены например).
  2. Мог измениться тип страницы, была информационная, стала коммерческая (например, появились цены и кнопка заказать).
  3. Изменилась текстовая релевантность, если добавили много нового текста.
  4. Можно получить фильтр за переоптимизацию, если перестарались с текстами.

Если же ничего не меняли, предположений нет, то диагностируем по порядку.

Проверка санкций и фильтров

Первым делом проверяем наличие нарушений, санкций и проблем безопасности в кабинетах вебмастеров Яндекс и Google. В случае серьезных нарушений, там будет соответствующее сообщение и позиции действительно могут резко упасть.

Кабинет Яндекс.Вебмастер — диагностика сайта
Кабинет Google Search Console — проблемы безопасности

Также, можно проверить конкретную страницу:

Проверка отдельной страницы

Проверяем последние апдейты в ПС

Дальше смотрим, не было ли недавно серьезных изменений в поисковой выдаче. Если они были, то вероятней всего изменился алгоритм и формула ранжирования, поэтому позиции сайта снизились. В таком случае, если никаких других проблем нет, надо будет заново делать анализ ТОП и корректировать документ (или добывать ссылки).

Апдейты можно посмотреть:

Анализатор апдейтов AnalyzeThis

На сервисе AnalyzeThis вообще много всяких анализаторов поисковых систем, полезно к изучению. А в отчете по апдейтам можно посмотреть изменения выдачи по конкретным словам, по которым работает анализатор.

ПиксельТулс самый красивый анализатор и что удобно, позволяет выбирать тематику запросов, для точной диагностики. Например, вы можете обнаружить что во всей тематике меняется поисковая выдача, старые сайты теряют позиции, а на первые места выходят другие.

Анализатор апдейтов PixelTools

Ручная проверка изменений в ТОП-10

Не зависимо от того был апдейт или нет, надо посмотреть как изменилась поисковая выдача по конкретным запросам. В большинстве сервисов проверок позиций есть история выдачи, а особенно здорово, если можно смотреть не конкретный запрос, а по группе.

Это может выглядеть так:

Видно изменение позиции в программе AllSubmitter

Или вот так:

История позиций в сервисе SeRanking

Если вы не отслеживали позиции, то есть сервисы, которые могут показать историю по популярным запросам, например Megaindex

История выдачи по запросу в Megaindex

Тут мы отмечаем степень изменения выдачи и проверяем какие сайты резко поднялись, у каких позиции резко упали. Сильно упали позиции только по нашему сайту или пострадал весь ТОП-10.

Очевидно, если упал только наш сайт, значит проблема у нас. Если сильно изменилась поисковая выдача, то вероятно изменился алгоритм или интент запроса.

Проверка типа документа и типа выдачи (интент запроса)

Поисковые запросы бывают разных видов и еще у запросов есть интент — потребность или задача, которую хочет решить пользователь.

Интент запроса

Поисковая выдача соответствует интенту запроса. Если пользователи вводят запрос чтобы купить, то в ТОП-10 магазины, если скачать — то сайты, где можно скачать. Если почитать, то статьи.

Поведение пользователей дает сигнал о том, какая должна быть выдача. Поисковик измеряет качество выдачи и корректирует ее. Если оказалось, что у запроса другой интент, например был информационный, стал коммерческий, поисковая выдача поменяется.

Наполнение страницы

Еще влияет наполнение страницы, другими словами из каких-элементов она состоит. Может быть в поиске у всех подробные таблицы с ценами, а у вас текст. Значит надо тоже делать таблицу с ценами. Может быть надо добавить галерею, может быть видео, блок вопрос-ответ, калькулятор, больше подзаголовков и т.п..

Быстро проанализировать необходимый тип документа можно с помощью классификатора запросов:

Инструмент классификации запросов от Megaindex

На скриншоте видим, что почти все запросы информационные (доля коммерческих сайтов 0%), значит нет смысла продвигать по ним категории интернет-магазина.

Тип страницы

Если в ТОП-10 стоят категории товаров, то не получится продвинуть товарную страницу и наоборот. Поэтому всегда проверяйте еще и тип страницы. Логика простая: если должна быть галерея, то не надо писать статью.

Не привязывайтесь к каким-то определенным характеристикам, лучше анализировать абстрактно. Смотрите, если все в ТОП-10 предлагают одно и тоже, а вы пытаетесь продвинуть другое, то скорей всего ничего не получится. Потому-что люди ищут именно то, что и стоит на первых позициях (алгоритм это понял и так поставил).

Проверка текстовой релевантности

Проверяем, что текст страницы релевантен поисковому запросу. Причем нас интересует не просто плотность ключевых фраз, хотя она тоже важна, но соответствие этой плотности сайтам в ТОП-10.

Поэтому сначала анализируем отдельно страницу, чтобы убедится, что она оптимизирована под запрос, а потом в сравнении с ТОП-10. К сожалению, пока не знаю удобного инструмента, который позволил бы хорошо делать всё вместе.

Анализ плотности ключевых слов

Уточнение. Если анализировать сайты в ТОП-10, то не будет такого, что у них прям у всех одинаковая правильная плотностью ключевых слов (и набор тематических слов, если вспомнить про LSI). В зависимости от типа запроса, текстовая релеватность вообще может быть не определяющим фактором (например для ВЧ запроса намного важней поведенческие факторы).

Проверить плотностью ключевых слов можно с помощью сервисов https://istio.com/ или https://text.ru/:

Проверка текста на istio.com

Я обычно пользуюсь расширением для Chrome — SEO Quake, там кроме прочих инструментов отличный анализатор плотности ключевых слов, в котором можно посмотреть статистику не только по словам, но и по словосочетаниям. Также видно вхождения слов в важные зоны документа (title, description, H1).

Анализ текста в SeoQuake

Хотя, вот еще в сервисе Istio классная функция «карта», выделяет размером наиболее повторяющиеся слова, сразу видно SEO-оптимизацию

Карта слов в сервисе Istio

Проанализировали текст, смотрим чтобы не было переспама, но при этом по плотности должно быть понятно, что текст отвечает на запрос.

Текстовый анализ ТОПа

Дальше, анализируем ТОП-10, смотрим какая плотность ключевых слов там, а также наиболее часто встречаемые фразы на странице (задающие тематику). Сравниваем со своей страницей и делаем выводы.

Можно было бы делать всё вручную, то есть каждую страницу брать и проверять в каком-нибудь инструменте, но к счастью есть инструменты облегчающие работу.

Анализ текста в Megaindex

Это бесплатный инструмент, более продвинутые аналоги есть почти во всех комплексных сервисах SEO.

Делаем выводы, корректируем явные проблемы. По любому стоит дописать текст, если не хватает тематических слов и по ним есть, что написать.

Однако повторюсь, что сайт может стоять в ТОП-10 не только из-за текстовых характеристик, есть еще ссылки, поведение пользователей.

Неправильная кластеризация (сбившаяся)

Кроме того, что можно изначально ошибиться с кластеризацией, часто бывает что через полгода-год кластеризация меняется и некоторые запросы перестают относится к прежнему кластеру. Если на сайте нет другой подходящей страницы, то такие запросы сильно просядут.

Чтобы быстро проверить, возьмите запросы существующего кластера семантического ядра и проверьте в любом инструменте. Или более простой вариант, возьмите запрос со страницы у которого высокая позиция, и просевшие запросы.

Пример кластеризации несовместимых запросов

Если оказалось, что запрос больше не совместим с этой страницы, то нужно либо сделать новую страницу под такой запрос, либо дооптимизировать другую страницу под него.

Сбой релевантной страницы

Иногда причина плохой позиции может быть в том, что изменилась релевантная страница внутри сайта. При этом новая релевантная страница проигрывает по другим факторам конкурентам в ТОП-10 и не может там стоять.

Клиенту допустимо не знать, какие именно страницы стоят по запросам, они больше обращают внимание на позиции. SEO-шник должен всегда контролировать какие страницы стоят в выдаче и особое внимание уделять фразам, по которым релевантные страницы поменялись.

Вот реальный пример, когда сбилась релевантная страница по запросу, сайт вылетел из ТОП-10, а потом после корректировки, вернулся на место.

Смена релевантной страницы привела к падению позиции сайта.

Что делать если нестабильна релевантная страница:

  1. Убедится, что на сайте действительно есть подходящая страница. Бывает позиция скачет, потому что поисковик никак не определится какая именно страница. Иногда надо просто взять и сделать подходящую страницу.
  2. Проверить на фильтр за переоптимизацию. Если фильтр есть, то снимать.
  3. Уменьшить плотность ключевых слов на ненужной странице
  4. Увеличить плотностью ключевых слов на нужной
  5. Поставить анкорную ссылку с ключевым словом с ненужной на нужную.

Кстати, наложение фильтра за переоптимизацию — очень частая причина смена релевантной страницы.

Проверка на переспам и переоптимизацию

Если в кабинетах вебмастеров нет никаких предупреждений и нарушений, то еще не факт, что нет фильтра или санкций. Фильтр за переспам и переоптимизацию накладывается не заметно. Главным признаком будет, если сайт упал на 20-50 позиций.

Чаще всего фильтр накладывается по конкретным ключевым фразам, по которым SEO-оптимизатор перестарался. Поэтому самый просто метод диагностики — это чуть-чуть изменить запрос и проверить позиции. Если позиция заметная выше, значит наверняка фильтр.

Такой метод определения используется в сервисе be1.ru

Проверка на переспам в сервисе BE1

Можно предположить, что наложен фильтр за переспам, если в группе запросов сильно упали только некоторые запросы. Если же провалились все, то скорей всего фильтр за переоптимизацию.

Другой метод проверки, это сверять позиции своего сайта и конкурентов по запросу вида «запрос (site:vashsite.ru | site:konkurent.ru)«. Если при сравнении с конкурентом сайт выше, а просто по запросу ниже, то вероятно есть фильтр. По такому принципу можно проверить в сервисе https://arsenkin.ru/tools/filter/

Это всё касалось Яндекса. В Гугл просто обваливается трафик и позиции по странице, а предполагать приходится интуитивно. Если есть шансы, что текст переспамлен или некачественный, то лучше полностью переписать.

Проверка технических проблем

Даже если сайт работает и страница лично у вас открывается, нельзя исключать влияние технических проблем, они тоже могут быть причиной плохих позиций и в Яндекс и в Google.

В первую очередь надо проверить сохраненную версию страницу в Яндекс и Google, убедится что содержимое совпадает с тем, что на сайте.

Затем можно выполнить аудит страницы с помощью каких-нибудь сервисов, например Be1 или PR-CY

Анализ страницы в Be1

Проверьте скорость загрузки в Page Speed Insights от Google, посмотрите рекомендации:

Обычно с технической точки зрения

Проверка на вирусы или взлом

Если сайт взломан, на нем могли появиться сотни и тысячи спамных страниц, из-за чего в короткое время просядет трафик.

Изучаем поисковую выдачу используя оператор «site:ваш сайт»

Пример спамных страниц, которые залили на взломанный сайт.

Если проблема подтверждается, надо защитить сайт, удалить взломанные страницы и отправить запрос на удаление проиндексированных спамных страниц. В Яндекс и Гугл кабинетах вебмастеров для этого есть инструменты.

Проверка коммерческих факторов

Если давно не меняли сайт, то может оказаться, что в ТОП-10 поменялся набор коммерческих факторов. Суть в том, что для каждой тематики и типа сайтов есть определенный набор элементов на сайте, которые пользователи привыкли видеть. Поисковик понимает, как это проанализировать.

И вот, например в ТОП-10 вышли страницы, на которых есть интерактивная карта проезда, а у вас нет, поэтому позиции снизились. Это реальный пример, я выводил страницу в ТОП-10 просто добавив карту проезда и текст «как добраться» на странице услуги.

Как проанализировать коммерческие по ТОПу я написал в конце статьи про коммерческие факторы ранжирования сайтов.

Часть таблицы по анализу на коммерческие факторы.

Проверка поведенческих факторов

Поведение пользователей тоже может влиять на позиции и чем больше частота запроса, тем это влияние выше. Нам надо проанализировать CTR на поиске и показатель отказов у себя на сайте.

С помощью Яндекс Метрики можно посмотреть как менялся показать отказов по странице. Если показатель отказов вырос, значит контент страницы перестал удовлетворять потребностям пользователя. Скорей всего позиции постепенно снизились. Нужно смотреть по стоящим в ТОП-10 сайтам, что теперь интересно пользователям.

График показатель отказов по странице

А с помощью кабинетов вебмастеров можно изучить информацию по кликабельности страницы (или запроса) в поисковой выдаче. Если какие-то страницы сильно выделяются на фоне остальных в худшую сторону, то скорей всего сниппет вашей страницы в результатах поиске не привлекает пользователей.

Проверка ссылочных факторов

Ну и наконец, надо проверить достаточно ли ссылочной массы у нашей страницы по сравнению с конкурентами (и качество этих ссылок). Это самая маловероятная причина резкого снижения позиций, что вдруг стало не хватать ссылочного веса.

В первую очередь смотрим общую ссылочную массу по сравнению с конкурентами. Если у нас средние показатели, то проверяем уже ссылки постранично.

Самый быстрый способ проверить страницы в ТОП на ссылки, это инструмент от Мегаиндекс «Анализ ссылок по ТОП»

Важно не только количество, но и анкоры ссылок. Сервис позволяет всё это посмотреть.

Анализ анкоров ссылок

Если ссылок достаточно, анкор лист выглядит разумным, то надо рассмотреть следующие угрозы:

  • Ссылки стоят, но они низкого качества. Донор превратился в линкопомойку и его ссылки стали вредить. Тогда нужно постараться снять ссылки (в Гугл можно отклонить в кабинете вебмастера)
  • Переспам в анкор-листе. Возможно, слишком много ссылок с прямым вхождением ключа. Тогда тоже нужно либо снимать ссылки, либо попробовать разбавить анкор лист.

С ссылками нужно быть поаккуратней. Учитывая, что они играют далеко не главную роль в продвижении, никому не рекомендую испытывать границы переспама или проверять сколько можно безопасно купить ссылок на страницу. Работаем точечно, добавляем по 1-2 ссылки в месяц на страницу максимум, а по возможности стараемся работать без них.

Проверка региона

Для коммерческих геозависимых запросов очень важна привязка региона. В основном это касается Яндекса, т.к. регион можно указать в Яндекс.Справонике и Яндекс.Вебмастере. (Хотя если в Гугл Мой Бизнес вы укажете неправильный город, то проблемы тоже будут).

Настройка региона сайта

Внимание! Многие вебмастера делают в подвале сайта список городов или районов где они работают. С 2021 года таким образом можно угробить сайт. Иногда можно даже увидеть предупреждение в Яндекс Вебмастере про спам регионами, но если предупреждения нет, это не значит, что санкций нет. Лучше не рисковать.

Рабочее решение, которое я нашел, это прописывать города в полях формы заявки (или в шапке сайта выпадающий список). Тогда они получаются есть на странице, показывают что вы с ними работаете, но при этом нет спама на странице. По крайней мере именно так я убрал предупреждение и вернул позиции на одном проекте.

Запросный индекс

Очень важный фактор, который набирает вес года с 2020, хотя термин «запросный индекс» используется сеошниками очень давно, его влияние раньше было не так выражено.

Запросный индекс — это все запросы по которым были когда-либо переходы на ваш сайт. Иногда считают показы, но на мой взгляд, это неверно. В показах иногда откровенно нецелевые запросы и их учет сильно бы портил работу алгоритма.

Поисковый алгоритм при оценке страницы сайта учитывает по каким запросам на сайт заходят вообще в целом. Если например у меня на сайте много статей по SEO и я собираю много трафика по этой теме, то вероятно у меня есть специализация в этой теме и доверять мне можно больше, чем статьям про SEO у блоггера, который про SEO практически не пишет, а пишет например про фотографию.

Другими словами можно сказать, что поисковая система оценивает покрытие темы.

Как понять, что может быть проблема с запросным индексом? На глаз можно просто сравнить меню своего сайта с конкурентами в ТОП-10 (или список тем статей). Если все у кого есть Х, предлагают Y, значит скорей всего вам тоже придется предлагать Y или хотя бы написать статью на эту тему.

Еще быстрей использовать текстовый анализатор. Т.к. меню сайтов попадает в анализ, те пункты, которые есть у всех конкурентов повлияют на итоговый рассчет.

Пример текстового анализа

Причем не достаточно раскрыть все возможные запросы на одной странице. Это раньше можно было накачать страницу связанными запросами и прокатывало. Теперь надо обязательно отдельные страницы, потому что только так они смогут собирать трафик (и показы, если хотите) по связанным запросам и прокачивать запросный индекс.

Заключение

Низкие позиции — это обычно недостаток релевантности или нехватка какого-то фактора.

Если позиции просели, то сначала исключаем наложение санкций, а затем проверяем по порядку возможные факторы и вы наверняка сможете выдвинуть гипотезы, которые стоит проверить.

Илья Пронин

Илья Пронин

специалист по SEO продвижению

Обсуждение и вопросы:

0 Комментариев
Оставить комментарий

Ваш адрес email не будет опубликован.