Фильтры и санкции поисковых систем

Рассмотрим основные фильтры поисковых систем, с которым чаще всего приходится сталкиваться SEO-оптимизаторам.

Фильтры и санкции в поисковых системах — это вынужденные меры, с помощью которые Яндекс и Google борются с недобросовестными SEO-оптимизаторами и спамерами. Очевидно, что техники накрутки факторов работали или работают, иначе бы санкции не вводились.

Алгоритм поиска — это всего лишь программа, которую можно обмануть, но ненадолго. К сожалению, мошенники успевают заработать до того, как сайт будет забанен.

Обычным компания из-за возможного наказания нет смысла использовать обманные техники.

Продвигаясь белыми методами, все равно есть риск залететь под фильтры, перегнув палку с оптимизацией страницы или из-за технических проблем на сайте. Алгоритм ведь не знает, специально вы или нет. У каждого фильтра есть определенный порог по которому он срабатывает. Поэтому важно знать какие бывают фильтры и уметь их диагностировать.

Признаки попадания под фильтр

  • Сайт не продвигается не смотря ни на какие действия.
  • Резко просел трафик
  • Упали позиции по группе запросов
  • Упали запросы по странице
  • Исключение страниц из индекса поисковой системы
  • Исключения сайта из поисковой системы

Основные причины попадания под санкции поисковых систем

  • Автоматическая генерация контента
  • Неуникальный контент (копирование и рерайт)
  • Участие в покупке и продаже ссылок
  • Накрутка поведенческих факторов
  • Скрытый текст и ссылки
  • Перенаправление с целью обмана
  • Спам микроразметкой
  • Распространение вирусов
  • Переизбыток рекламы
  • Страницы низкого качества без понятного назначения
  • Создание дорвеев (создание отдельной страницы под каждый запрос — это по сути дорвей)
  • Переоптимизация (избыток ключевых слов)

В справочных разделах поисковых систем можно найти информацию о возможных нарушениях и наказаниях:

https://yandex.ru/support/webmaster/yandex-indexing/webmaster-advice.html — признаки некачественных сайтов с точки зрения Яндекс и основные ограничения применяемые к ним.

https://developers.google.com/search/docs/advanced/guidelines/webmaster-guidelines?hl=ru — рекомендации Google для вебмастеров

Рекомендации Google, такой же раздел есть и у Яндекс.

Автоматические и ручные фильтры

Автоматический фильтр — накладывается алгоритмом при наступлении определенных обстоятельств, при выходе за какие-то пороговые значения. Обычно проявляется после апдейта в поисковой выдаче.

Если у вас сильно просели позиции после апдейта, то это как раз может быть признаком наложения фильтра. Конечно, надо исключить и другие причины низких позиций.

Ручной фильтр — накладывается сотрудниками поисковой системы на один или группу сайтов. Накладывается обычно на весь сайт. Вероятней всего такие сайты жестко нарушили правила, при этом у них получается обойти автоматический алгоритм, поэтому требуется ручное вмешательство.

Если на вас наложили ручной фильтр, то сообщение будет отображаться в кабинете вебмастера, а при переписке сотрудники подтвердят его наличие.

В зависимости от вида фильтра меняется тактика выхода из под фильтра.

Пред-фильтры и пост-фильтры поисковых систем

Пред-фильтры — уменьшают значение факторов ранжирования до того, как будет рассчитана релевантность. Обычно накладывается за накрутку внешних факторов продвижения (ссылки, ПФ). Проявляются как залипание, то есть продвигаете продвигаете, начинался рост и потом как будто застыло.

Пост-фильтры — применяются после расчета релевантности документа. Обычно проявляется резким падением позицией по группе запросов, или всех запросов по странице. Сначала продвинули, потом резко упали.

Хостовые, документо- и запросозависимые фильтры

Хостовые фильтры — накладываются на сайт целиком. Сайт исчезает из поиска, теряет позиции по всем запросам, или вы долго не можете продвинуться.

Запросный фильтр — накладывается на конкретные запросы. Идет падение по конкретным запросам, либо долго не продвигается определенный запрос (особенно, если вы очень стараетесь).

Документный фильтр — накладывается на конкретные страницы. Идет падение по всем запросам документа, либо никак не получается продвинуть.

Место фильтров в поисковом алгоритме

Я нашел в интернете, по моему, замечательную иллюстрацию работы поисковых систем, на которой отражены фильтры, я отметил их красным. (картинка кликабельна, но все равно мелкая)

Не знаю насколько верно здесь отражены все процессы, но вроде фильтры на своих местах и в целом наглядное представление для понимания работы алгоритма.

Работа алгоритма поисковой системы с фильтрами.

Фильтры Яндекса

Самые жесткие фильтры дают за накрутку факторов ранжирования. Вывести сайт из под фильтров сложно и дорого, это:

  • Минусинск — за покупные ссылки — падают все запросы
  • Фильтр за накрутку поведенческих — падают все запросы, кроме названия сайта или фирмы
  • SEO тексты. Понижаются страницы с SEO-текстом, часто применяется ко всему сайту.

Здесь всё просто, использовали обманные техники — получили фильтр. В данном случае диагностика особо не нужна, владелец сайта обычно в курсе что происходит.

Фильтры за всякий треш подробно не рассматриваю, т.к. я и мои клиенты таким не занимаются:

  • За агрессивную рекламу
  • Дорвеи
  • Сайты клоны
  • Кликджекинг
  • Прочий обман и манипулация с посетителями
  • АГС — сайты низкого качества, обычно сделаны под продажу ссылок
  • Adult фильтр за содержание взрослого контента

Для SEO актуальней всего фильтры за текстовую оптимизацию, потому что здесь мы всегда работаем на грани.

Переспам («Новый»)

Данный фильтр направлен на конкретные запросы, по которым у вас переспам в тексте страницы. Если по конкретному запросу резко упала позиция, то вероятно наложен фильтр за переспам.

При этом, если поменять в запросе слова местами или добавить другие слова, то позиция будет значительно выше. Это и есть метод диагностики.

Частая ситуация когда по запросу встает менее релевантный документ, то есть основной документ вообще перестает ранживароваться по запросу (но остается по другим запросам)

Для снятия фильтра нужно уменьшить плотность данного запроса в документе.

Позднее появился «Новый текстовый фильтр», который является более жесткой версией Переспама. Позиции падают сильней, а перестановка слов в запросе ничего не даёт.

Переоптимизация

Фильтр переоптимизация накладывается на весь документ, в итоге падают все запросы ведущие на эту страницу.

Как вариант, документ может быть исключен из поиска, или поменяется релевантная страница по всей группе запросов.

Например по запросам категории в интернет-магазине будет выдаваться страница товара или статьи.

Для диагностики фильтра за переспам и переоптимизацию рекомендую инструмент от PixelTools.

Инструмент для диагностики фильтра «Переоптимизация»

Важная информация! При наложении фильтра учитывается не только текст документа, но и анкоры внутренних и внешних ссылок. То есть при анализе текста, может показаться, что плотность ключевиков в норме, но окажется переспамлен анкор-лист. В таком случае, если сложно исправить, или ничего не помогает, то можно сменить URL без редиректа.

SEO-тексты и Баден-Баден

Баден-Баден это новый алгоритм для определения переоптимизрованных текстов, был представлен в 2017 году. Как я понимаю, это именно алгоритм, который выявляет нарушения типа «Переспам» и «Переоптимизация», а не отдельный фильтр. То есть при наложении фильтра за переоптимизацию конкретной страницы тоже отвечает этот алгоритм.

При этом, судя из сообщений Яндекс, если на сайте на многих страницах выявлено нарушение «Переоптимизация», то в качестве наказания все страницы сайта могут ранжироваться ниже. Тип наказания при этом называется за «SEO-тексты», он есть в справке Яндекса.

Соответственно диагностировать конкретные страницы с нарушениями будет сложно и переписывать придется все подозрительные тексты. Есть вероятность, что при переписке с поддержкой, они подтвердят наказание.

Проверить риск попадания под Баден-Баден можно в сервисе Тургенев

Сервис оценит риск попадания под «Баден-Баден»

Итого по фильтрам Яндекса

Если вы подозреваете, что на ваш сайт наложен фильтр, то первым делом обращайтесь в поддержку. В случае жестких нарушений, применяемых ко всему сайту, они подтвердят наличие фильтра.

Если же у вас постраничные фильтры за переоптимизацию, то вам скорей всего ничего не скажут. Ответят в духе: делайте полезные сайты с полезной информацией.

Фильтры Google

У Google много разных фильтров по типам нарушения, с которыми можно было ознакомиться по ссылкам в начале статьи. Если вы не занимаетесь откровенным обманом и манипуляциями, то вам они не грозят.

Для SEO оптимизаторов самые актуальные — это фильтры Пингвин и Панда.

Пингвин (Penguin) — фильтр за ссылки

Чтобы попасть под этот фильтр нужно очень постараться и закупать много некачественных ссылок. Если хотя бы чуть-чуть анализировать, какие ссылки ставишь на свой проект, то риск получить этот фильтр минимальный (зато фильтр от Яндекса вообще легко).

Примеры причин:

  • анкоры с прямым вхождением запроса (особенно в неестественном виде, типа «услуга цена купить мск»
  • сквозные ссылки
  • участие в ссылочном обмене («сошлись на меня, а я на тебя»)
  • спам ссылками в комментариях
  • автоматическое размещение ссылок с помощью программ
  • низкокачественные каталоги и сервисы закладок
  • скрытые ссылки

При наложении фильтра на сайте резко проседает трафик.

Чтобы снять фильтр, нужно в панели Google Search Console отклонить все некачественные ссылки и скрестить пальцы.

Инструмент отказа от ссылок

Панда (Panda) — фильтр для борьбы с некачественным контентом

Алгоритм Google Panda борется с некачественным контентом и страницами. Причем анализируется не только текст. Например если у вас на сайте много дублей страниц или битых ссылок, то сайт может попасть под фильтр.

За что накладывается фильтр:

  • Скопированные текст и плохой рерайт
  • Большое количество страниц с минимумом текста
  • Сгенерированный некачественный текст
  • Переоптимизация по ключевым словам
  • Агрессивная реклама, всплывающие окна
  • Дорвеи
  • Большое число исходящих некачественных ссылок

При наложении Панды тоже просаживается трафик на сайт. Чтобы избавиться от фильтра рекомендуется сделать технический аудит, проверить битые ссылки, качество страниц, качество текстов. Для технического аудита у меня есть список инструментов для SEO-аудита, там сервисы, программы и расширения для браузера.

Панда или Пингвин?

Для диагностики типы фильтра в Google обычно рекомендуют смотреть на даты обновления алгоритма, но мне кажется это ненадежный способ. Тем более официально обновления объявляются все реже, хотя есть инструменты, которые диагностируют серьезные изменения в выдаче и по ним делают вывод о том, что произошло обновление.

Например, такой инструмент:

feinternational.com/website-penalty-indicator

Индикатор фильтров в Google

А вот здесь, можно посмотреть последние обновления алгоритма в Google

https://moz.com/google-algorithm-change

Где смотреть апдейты в поисковых системах

Еще несколько сервисов, где удобно отслеживать обновления в поисковых системах

Пиксель Тулс

Апдейты выдачи в Пиксель Тулс

Топвизор

Апдейты выдачи в Топвизоре

Заключение

Рассмотрели типы фильтров поисковых систем и за что они накладываются. Самые жесткие фильтры накладывают за откровенную накрутку. Уведомление о наложении таких фильтров обычно высвечивается в панели вебмастера.

SEO оптимизаторы чаще всего сталкиваются с фильтром за переоптимизацию и это нормально. Оптимизируя страницу под поисковые запросы нам приходится целенаправленно увеличивать их плотность в тексте, в результате можно случайно переспамить.

К счастью, фильтр за переоптимизацию обычно снимается за один апдект с помощью корректировки текста. Поэтому рекомендуется проверять этот фильтр сразу, как только заметно просели запросы, чтобы успеть к следующему апдейту.

Илья Пронин

Илья Пронин

специалист по SEO продвижению

Другие статьи:

Обсуждение и вопросы:

0 Комментариев
Оставить комментарий

Ваш адрес email не будет опубликован. Обязательные поля помечены *