Типовые проблемы при SEO аудите и почему это плохо

Выкладываю эту статью, чтобы не повторяться в текстовых или видео отчетах при SEO разборе. Таким образом, если я нахожу эти проблемы, я просто говорю, что это плохо.

Чтобы вам после этого не читать учебники или форумы, будет эта страница. Этой информации будет достаточно и для самостоятельной проверки сайта с помощью бесплатных программ для SEO аудита.

Причины проблем разбирать не будем, потому-что проблемы на разных сайтах могут быть одинаковые, а причины разные. Это может быть проблема в программном коде, а может быть человеческий фактор, а программист не причем.

Полное дублирование страниц

Полное дублирование — это когда одна и та же страница сайта доступна по разным адресам. То есть в адресной строке путь меняется, а страницы выглядят одинаково.

Популярные примеры:

  • сайт с www и сайт без www
  • страница со слешем/без слеша
  • страница с параметрами ?param=param и без параметров
  • страница или товар доступные через разные категории

Почему плохо?

Дублирование самая популярная и грубая ошибка на сайтах. Из-за дублирования:

  • важные страницы не попадают в индекс, либо конкурируют сами с собой
  • неважные страницы попадают в индекс ПС в большом количестве, что может привести даже к исключения сайта из результатов поиска
  • роботы ПС реже и реже заходят на сайт, т.к. «застревают» на долго, видят много одинаковых страниц
  • неправильно распределяется внутренний ссылочный вес

А также может привести к наложению санкций на сайт. Например, в справке Google указано: «В тех редких случаях, когда Google считает, что повторяющийся контент показывается для того, чтобы манипулировать рейтингом или вводить пользователей в заблуждение, мы внесем изменения в индекс и рейтинг рассматриваемых сайтов. В связи с этим рейтинг сайта может понизиться или сайт может быть вообще удален из индекса Google и будет недоступен для поиска.»

У меня есть статья как бороться с дублями страниц.

Частичное дублирование контента

Частичное дублирование — это когда страницы очень похожи между собой. То есть адреса у них разные и содержимое уже отличается. Но на них есть повторяющееся одинаковое содержимое (например текст о компании, блок новостей, вопросы-ответы, отзывы).

Сколько должно повторится информации, чтобы страница была частичным дублем?

Это очень плавающая пропорция, на старом трастовом сайте будет достаточно что у страниц отличается заголовок и они уже не будут дублями для поиска (но все равно могут иметь проблемы с релевантностью).

Популярные примеры:

  • страницы городов, на которых перечислены одинаковые услуги, меняется только название города
  • страницы товаров и услуг без описаний (повторяющимся контентом будут меню и шаблон сайта)
  • в крупных каталогах и магазинах страницы категорий и тегов, в которых мало товаров
  • страницы разных категорий и тегов, в которых одинаковые товары
  • страницы с разными товарами, но названия товаров очень похожи, типа «очки арт 1, очки арт 2»

Фильтр за малополезный контент

Частичное дублирование самая основная причина выпадения страниц из индекса. У Яндекса такие страницы называются «малоценная или маловостребованная страница», а в Гугл «страница просканирована, но пока не проиндексирована».

В общем в обоих популярных поисковиках такие страницы считаются некачественными и чем больше их на сайте, тем сильней страдает сайт в целом. Вплоть до наложения фильтра.

Очень важно! Чем больше у вас таких страниц, тем хуже у вас с трафиком и позициями по сайту в целом. Надо либо увеличить уникальность, либо закрывать от поиска эти страницы.

Размытие релевантности

Даже если все страницы в индексе, может происходить размытие релевантности. Если повторяется большой кусок текста (например зачем то решили текст о компании сквозным по всему сайту сделать), то из-за него будет снижаться плотность по ключевым словам на любой странице.

Практика показывает, что если убирать повторяющийся сквозной контент со страниц, то позиции по запросам растут.

Из справки Google: «Избегайте шаблонных повторений. Например, вместо того чтобы помещать весь текст об авторских правах в нижней части каждой страницы, указывайте только самые основные сведения со ссылкой на страницу, на которой приводится подробная версия.»

Дублирование метатегов и H1

По отношению ко всему содержимому страницы метатеги составляют маленькую часть, но учитывая их важность, их дублирование тоже может представлять серьезную проблему.

Даже если страницы полностью отличаются, сила метатега Title настолько мощная, что он может сбивать релевантность. В итоге менее релевантная страница может быть выбрана основной и выводится на низких позициях.

Также за повторы метатегов также можно получить статус «малополезная страница»

Проблемы с метатегами и заголовками

Метатеги и заголовки очень важные элементы страниц.

Важно:

  • Метатег Title и H1 обязательно должны быть на странице
  • Должны быть уникальны внутри сайта
  • Title и H1 могут быть одинаковыми, но это бессмысленно, потому-что в Title можно прописать дополнительные ключевые слова.
  • Длина Title до 12 слов и 140 символов. Поисковик отображает около 60 символов, но это не значит, что он не учитывает остальные.
  • Длина Description до 160 символов.
  • Заголовок должен быть оформлен тегом H1. Для магазинов он должен содержать самый жирный запрос категории или название товара.

Технические страницы в индексе

В зависимости от настроек движка в поисковики могут попадать страницы без смысловой нагрузки. Они сделаны для удобства людей, или создаются из-за ошибок в разработке (недосмотрели или применили нестандартное решение, не проконтролировали) и мешают продвижению сайта.

Примеры таких страниц:

  • Страницы сортировок
  • Страницы разного вида отображения каталога (плитка, список)
  • Страница печати
  • Страницы сравнения
  • Товары с параметром

Как это обычно происходит. Человек находится на сайте, взаимодействует с информацией, применяет фильтры, сортирует, использует калькулятор и так далее. При этом в адресной строке каждый раз меняется адрес, хотя суть страницы не меняется.

Почему это плохо?

Такие страницы потом попадают в индекс поисковых систем и являются по сути частным случаем дублирования. И опять мы имеем размытие релевантности, проблемы с индексацией.

Страница с параметром может попасть в индекс, а из-за этого будет исключена основная страница как дубль, а у технической страницы не хватат факторов чтобы занимать прежнее место в поиске. Скорей всего она не будет занимать никакого места.

Битые ссылки

К битым ссылкам относятся не только ссылки в текстах, которые ведут на несуществующие страницы. К ним относятся любые файлы: картинки, скрипты, файлы стилей. В основном, все-таки, проблемы бывают со страницами.

Очевидно, что на рабочем сайте, за которым следят, все должно работать и битые ссылки — это плохо.

Почему это плохо

С точки зрения SEO проблема появляется, когда битых ссылок становится много относительно общего числа страниц. Тогда может просесть посещаемость сайта в целом, видимо, есть какой-то фильтр за качество сайта в целом. Например, если на сайте 10% битых ссылок, это, на мой взгляд, уже авария.

Из справки Google: «в результах поиска будет много несуществующих страниц и это помешает высокому ранжированию существующих страниц

Проблема 404

Проблемма, когда по несуществующему адресу сайт отдает код сервера 200 ОК, как будто страница существует. При правильной настройке несуществующая страница должна отдавать код 404 Not Found.

Если у вас большой сайт, а при сканировании вообще нет битых ссылок, то это подозрительно, сразу стоит проверить работу 404й страницы.

Почему это плохо?

В совокупности с техническими страницами и разными вариантами дублей получается «убийца» индексации. Страницы попадают в поиск без какой-либо логики, а если догадливый конкурент закупит временно ссылок на выдуманные адреса, то вообще может «потопить» сайт.

Рекомендация Google: «Если вы переопределили поведение сервера для несуществующих URL, убедитесь, что сервер возвращает код ошибки 404. Получив код ответа 404, поисковая система удалит данный документ из индекса. Следите, чтобы все нужные страницы сайта отдавали код 200 OK. Если несуществующие страницы будут отдавать код 200 ОК, то в результах поиска будет много несуществующих страниц и это помешает высокому ранжированию существующих страниц. Это также мешает обнаружить битые ссылки на сайте и вы не узнаете, что посетитель не нашел нужную информацию».

Примечание:

Страницы 404 не должны индексироваться поисковыми системами. Убедитесь, что ваш веб-сервер отправляет код статуса HTTP 404, а в случае с сайтами на JavaScript используйте метатег noindex для роботов, если запрашивается несуществующая страница.

Не запрещайте поисковым системам сканировать страницы 404 в файлах robots.txt.

Не стоит использовать 301 редирект для несуществующих страниц. Если страница действительно была перенесена, тогда можно.

301-е редиректы

Если на сайте менялась структура, то может возникнуть проблема, когда многие внутренние ссылки содержат старые адреса, по которым происходит перенаправление на новые адреса.

Получается, что при смене структуры сайт вроде не сломался, но по факту появилось куча перенаправлений.

Например, если меняли пункты меню, перемещали подкатегории, просто меняли адреса страниц. В таком случае надо всегда перепроверять сайт и исправлять также и ссылки, которые вели на старые адреса.

Почему это плохо?

  • 301-редирект не передает поведенческие факторы
  • 301 редирект, хоть и сообщает что страница поменяла адрес, но если ссылки продолжают стоять на сайте, то в поиске может еще долго оставаться старая или обе страницы, что выливается в проблему с выбором релевантной страницы и низкими позициями

Скорость сайта

С 2021 года скорость работы сайта является фактором ранжирования в Google. Причем учитывается не та скорость, с какой отдает страницы ваш сервер, а та с которой конкретные пользователи получают страницы на свои устройства и как быстро страница отображается и позволяет взаимодействовать с сайтом.

То есть скорость смотрим по Яндекс.Метрике, Google Аналитике и отчет «Основные интернет-показатели» в Google Search Console. Чем ваш сайт легче и проще скроен, тем быстрей он грузится на медленном интернете и тормознутых смартфонах.

Проблема появляется тогда, когда сайт реально тормознутый. Не надо делать из скорости культа, надо быть просто не сильно хуже конкурентов.

Грубые ошибки влияющие на скорость сайта:

  • Отключено кеширование
  • Отключение сжатие g-zip
  • Тяжелые изображения используемые в шаблоне сайта
  • Кривая верстка и подключение слишком большого числа скриптов про запас

Неактуальная карта сайта sitemap.xml

По самым разным причинам в карте сайта могут быть старые страницы или наоборот не хватает новых страниц. Причем, из-за карты сайта, старые страницы могут оставаться в индексе поисковых систем и мешать ранжироваться остальным страницам сайта.

Проблемы с изображениями

Две основные проблемы:

  • Тяжелые изображения замедляют загрузку сайта
  • Не прописаны атрибуты ALT, которые могут использоваться для поиска по изображениям в Google и Яндекс, а также это дополнительное место куда можно прописать ключевые слова (Google учитывает)

Адреса страниц

Адреса страниц (или URL) должны быть ЧПУ (человекопонятный «урл»), то есть по адресу можно понятно что находится на странице.

Правильно:

/category/obuv/botinki

Неправильно

/q4r452/43534/?sdfsd=23423&sdkfjh=1241234

/page1 — вроде и ЧПУ, но хрен знает что там

Google не рекомендует:

  • использовать длинные URL с ненужными параметрами и идентификаторами сессии;
  • наполнять URL набором ключевых слов, например “cards-otkrytki-prazdniki-otpravitpozdravleniya.html”.
  • использовать большое количество вложенных директорий, например “…/dir1/dir2/dir3/ dir4/dir5/dir6/page.html”;

Если у вас на сайте используются GET параметры, то будьте внимательные и закрывает от индексации такие, из-за которых могут попасть в индекс дубли страниц.

Почему это важно:

  • ЧПУ URL увеличивает кликабельность (CTR) в результатах поиска, что положительно влияет на поведенческие факторы.
  • Поисковик понимает слова в URL и учитывает в ранжировании
  • Также, когда он распознал слово, он его подсвечивает его в выдаче (опять CTR)

Прочие проблемы

Перечислил типовые ошибки, часто встречающиеся на разных сайтах. Если у вас популярный движок, то вероятность собрать экзотических ошибок у вас минимальная. Хотя все зависит от того, кто делал.

Если сайт разрабатывается под себя с программистом, то появляется куча возможностей накосячить, но не вижу смысла здесь расписывать все варианты. Планирую опубликовать пару аудитов интернет-магазинов и там будут интересные примеры.

А если технических проблем нет, а позиции плохие?

Сайт может быть в идеальном техническом состоянии, но при этом занимать низкие позиции и не иметь трафика.

Дело в том, что техническое состояние является необходимым, но не достаточным для продвижения сайта.

Информационный поиск — это про тексты, про текстовую релевантность. Также поисковые системы учитывают поведение пользователей и связи между сайтами (ссылки), чтобы выбирать не только по тексту, но и проанализировать доверие и удобство.

Задача SEO продвижения сделать так, чтобы поисковик посчитал страницы сайта лучшим ответом на введеный запрос пользователя.

А техническое состояние может этому либо помочь, либо помешать.

SEO разбор БЕСПЛАТНО

Обозначу ключевые проблемы и точки роста по SEO вашего сайта.

подробнее >>

SEO консультации

Подскажу, как продвинуть сайт, отвечу на вопросы по SEO.

от 2000 руб. подробнее >>

Технический аудит

Решу проблемы с индексацией и ранжированием для многостраничных сайтов.

от 15 000 руб. подробнее >>

Илья Пронин

Илья Пронин

специалист по SEO продвижению

Другие статьи:

Обсуждение и вопросы:

0 Комментариев
Оставить комментарий

Ваш адрес email не будет опубликован. Обязательные поля помечены *