Технический SEO аудит (Перевод c MOZ)

Это автоматический адаптированный под русский сегмент интернета перевод статьи: https://moz.com/seo-audit-checklist. Опубликовал и местами скорректировал, чтобы можно было ссылаться на некоторые разделы этой статьи из своих аудитов, а английский не все понимают (и у нас есть Яндекс и другие сервисы для SEO).

Содержание

Вступление

Может ли эта страница ранжироваться? Соответствует ли она минимальным требованиям технического SEO или превосходит их?

Эти вопросы снова и снова задают себе SEO-специалисты, консультанты и владельцы сайтов. Опытные профессионалы обычно имеют быстрый список технических SEO-пунктов, которые необходимо проверить при решении проблем ранжирования и индексации. Аналогичным образом, агентства и консультанты часто проводят углубленный технический SEO-аудит, иногда охватывающий сотни страниц, чтобы помочь улучшить поисковую видимость своих клиентов.

Здесь мы предлагаем вам пункты бесплатного технический SEO-аудит страниц, который проводится быстро и легко, но при этом охватывает все важные области индексации, ранжирования и видимости в результатах поиска Google, основываясь на наших многолетних глубоких знаниях в области SEO.

1. Основы

Хотя технически это не является частью самого аудита, это простые пункты контрольного списка, которые помогут получить наилучшие данные, получить доступ к дополнительным инструментам и в большинстве случаев облегчить процесс аудита в сотни раз.

Установленная аналитика

Хотя наличие установленной аналитики не является фактическим фактором ранжирования, наличие пакета аналитики может предоставить тонну информации о посетителях и технической информации о вашем сайте.

Большинство веб-мастеров устанавливают Google Analytics, но для тех, кто беспокоится о конфиденциальности или производительности, существует множество отличных альтернатив.

Инструменты: Google Analytics

Подключены кабинеты вебмастеров

Настройка свойств сайта в Google Search Console или Yandex Webmaster Tools (а иногда и в Bing) может дать много информации о том, как эти поисковые системы просматривают ваш сайт. Многие из дополнительных шагов в этом контрольном списке значительно упрощаются при наличии доступа к этим инструментам. Кроме того, эти инструменты часто дают вам прямой доступ к конкретным инструментам и настройкам, которые помогают вашему сайту в ранжировании и видимости, например, отправка карты сайта или международный таргетинг.

Инструменты: Яндекс Вебмастер, Google Search Console, Bing Webmaster Tools

Рекомендуется: Выполните проверку сайта

Если вы проверяете только одну страницу, почти все пункты этого контрольного списка можно проверить вручную, используя различные инструменты и час или два вашего времени. Однако если вы хотите провести аудит сразу нескольких страниц или масштабировать процесс, обычно полезно выполнить проверку всего сайта.

Большинство сервисов SEO предлагают возможности сканирования сайта, и они часто могут выявить проблемы, не обнаруженные с помощью традиционной аналитики или свойств Search Console.

Инструменты: Screaming Frog SEO Spider, Labrika, SERanking

2. Сканирование и индексирование

Эта часть аудита нужна, чтобы ответить на два очень простых, но важных вопроса: посещают ли поисковые системы ваш сайт и индексируют ли ваш важный контент? Если поисковая система не видит ваш контент, то его невозможно найти, а значит он никак не может попасть в ТОП-10 и привлечь трафик.

URL проиндексирован

Возможно, самый важный пункт всего контрольного списка: отображается ли URL-адрес в Google (или выбранной вами поисковой системе)? Чтобы ответить на этот вопрос, SEO-специалисты обычно проводят одну из двух очень быстрых проверок.

  1. Выполните поиск по сайту:

Поиск «site:» — это, пожалуй, самый быстрый и простой способ проверить, проиндексирован ли URL. Просто введите «site:», а затем URL. Например:

site:https://ilyapronin.ru

  1. Search Console «Inspect URL» или «Проверить статус URL» в Яндекс Вебмастер

Проблема с использованием поиска «site:» заключается в том, что он возвращает все, что начинается с введенного вами шаблона URL, поэтому он может вернуть несколько URL, соответствующих строке. По этой причине часто лучше искать точный URL с помощью инструмента URL Inspection в Google Search Console.

Проверка в Яндекс Вебмастере
Проверка в Search Console

Индексация важного контента

Хотя важно, чтобы поисковые системы могли индексировать ваш URL, вы также должны быть уверены, что они могут индексировать ваш фактический контент. Какой бы замечательный текст вы не написали, какая бы прекрасная не была страница, если ее содержимое не доступно для индексирования, трафика и позиций не будет.

Хотя это не совсем надежный способ, один из быстрых способов — просто проверить кэш Google или Яндекс для URL. Это можно сделать с помощью следующего кода, заменив «example.com» на ваш URL.

https://google.com/search?q=cache:https://example.com/

Либо в результатах поиска напротив URL можно выбрать «сохраненная копия»

Примечание: На данном этапе, если вы убедились, что ваш важный контент действительно индексируется, вам не нужно тратить много времени на изучение вопросов индексации, описанных ниже. Однако по мере увеличения количества страниц эти вопросы становятся все более важными для проверки, и всегда полезно потратить несколько минут на проверку.

Возвращает код состояния 200

На уровне страницы, если вы хотите, чтобы поисковые системы проиндексировали URL, он обычно должен возвращать код состояния ответа 200 HTTP. Очевидно, что вы хотите избежать ошибок 4xx и 5xx. Код перенаправления 3xx менее смертелен, но он обычно означает, что URL, который вы проверяете, не тот, который будет ранжироваться.

Инструменты: https://httpstatus.io/

Открыта к индексации метатегом robots и тегом X-robots-tag

Если вы наблюдаете проблемы с индексацией, необходимо быстро проверить, не помечена ли страница директивой robots «noindex» (запрещающей индексацию). Отсутствие директивы robots — это нормально, так как по умолчанию стоит «index».

Чаще всего директивы robots размещаются в HTML в виде мета-тега robots. Гораздо реже они размещаются в заголовке HTTP в виде тега X-robots-tag. Вы можете проверить оба места, но отчет Google «Проверка URL» (или аналог от Яндекса) быстро подскажет вам, разрешена ли индексация.

Проверка страницы закрытой от индексации тегом noindex

Инструменты: Яндекс Вебмастер, Google Search Console

URL, не заблокирован файлом robots.txt

Хотя Google все еще может индексировать URL, заблокированный файлом robots.txt, он не может просматривать содержимое страницы. А блокировки через robots.txt часто бывает достаточно, чтобы URL не попал в индекс Google.

Если URL прост, вы можете обойтись быстрой визуальной проверкой файла robots.txt. В большинстве случаев вам, скорее всего, потребуется более тщательная проверка URL с помощью одного из перечисленных ниже инструментов.

Инструменты: Яндекс Вебмастер, Google Robots.txt Tester, Robots.txt Validator and Testing Tool

Проверка страницы в Яндекс Вебмастер

URL указан в файле XML sitemap

Технически, включение URL-адресов в файл XML sitemap не требуется для ранжирования в поисковых системах, но это может значительно облегчить обнаружение ваших URL-адресов поисковыми системами, а в некоторых случаях может помочь в поиске и даже ранжировании (URL не будет ранжироваться, если он никогда не будет просмотрен).

Наилучшей практикой является включение всех индексируемых URL в XML sitemap или несколько файлов sitemap.

Google Search Console показывает, что нашел страницу в Sitemap

Инструменты: SEO-сервисы и программы, которые сканируют сайт, обычно показывают проблемы с Sitemap

Sitemap указан в файле robots.txt

Итак, вы убедились, что ваш URL указан в XML sitemap. Далее необходимо убедиться, что поисковые системы — все поисковые системы — могут легко найти файлы карты сайта.

Самый простой и понятный способ сделать это — просто указать местоположение вашей карты сайта в файле robots.txt. Размещение карты сайта здесь работает для всех основных поисковых систем и не требует дополнительной работы. Недостатком этого метода является то, что он потенциально раскрывает вашу карту сайта для сторонних поисковых систем, поэтому в некоторых случаях вы можете не использовать его, а применить прямую отправку в поисковые системы (см. ниже).

Отправка файла Sitemap в поисковые системы

Даже если карта сайта указана в файле robots.txt, вам все равно следует убедиться в том, что вы отправляете свои XML-карты непосредственно поисковым системам.

Это гарантирует, что:

  • Поисковые системы действительно знают о вашей XML карте сайта
  • Поисковые системы сообщат, признали ли они карту сайта действительной.
  • Наконец, вы сможете получить от поисковых систем отчет о покрытии со статистикой о том, как они просмотрели и проиндексировали URL-адреса, указанные в вашей карте сайта.

И Яндекс и Google поддерживают прямую отправку карты сайта. Google предлагает особую ценность в этой области, поскольку после отправки карты сайта вы можете проверить отчет Google о покрытии индекса для каждой отдельной отправленной карты сайта.

Отчет «Покрытие» в GSC показывает статистику по страницам из карты сайта

URL можно найти по внутренним ссылкам/навигации

Sitemap.xml — это один из способов обнаружения поисковыми системами страниц на вашем сайте, но основным способом остается просмотр веб-страниц и переход по ссылкам.

Как правило, ваши высокоприоритетные страницы должны обнаруживаться в пределах 4-5 кликов от главной страницы. Это часть архитектуры вашего сайта.

Также, надо избежать «бесхозных страниц» — страниц, на которые не ссылаются никакие внутренние URL-адреса вашего сайта.

Процесс обнаружения бесхозных страниц не так прост. SEO-краулеры, такие как Screaming Frog и Sitebulb, хорошо справляются с поиском бесхозных страниц, но для их обнаружения требуется подключение к другим источникам данных — таким как карты сайта. По правде говоря, URL-адрес, который «не хочет» быть найденным, может быть очень трудно найти, если на него нигде нет ссылки или списка.

Лучший способ избежать бесхозных страниц — просто обеспечить ссылки на важные страницы, либо через навигацию, либо через другие внутренние ссылки. Search Console и многие инструменты SEO-связи могут предоставлять ограниченные отчеты о внутренней перелинковке, но часто решение проблемы требует именно ручной проверки.

Контент доступен по единому, канонизированному URL-адресу

Есть несколько основных принципов, которые следует помнить, когда вы думаете о каноникализации и дублированном контенте.

  1. Все URL-адреса должны иметь канонический тег
  2. Различные URL-адреса с одинаковым содержимым должны ссылаться на один и тот же канонический URL-адрес. Кроме того, параметры URL, не изменяющие содержимое страницы, не должны изменять канонический тег. Например:

https://example.com?parameter=same-content

Скорее всего, канонический URL будет выглядеть следующим образом:

<link href="https://example.com/" rel="canonical">

3. Различные варианты написания URL должны вести к одному и тому же содержимому, например, это все один адрес:

http://example.com
https://example.com
http://www.example.com
https://www.example.com

В идеале, 3 из 4 должны перенаправлять на «каноническую» версию — в зависимости от того, какой шаблон URL является правильным — с помощью 301 редиректа.

Проверить тег canonical можно с помощью SEO-расширений (например Meta SEO Inspector) или в Яндекс Вебмастере:

Наличие тега canonical
Проверка метатегов через Meta SEO Inspector

Выбранный Google canonical соответствует выбранному пользователем canonical

Плохая новость: то, что вы определили свой canonical, не означает, что Google будет его соблюдать. Google использует множество сигналов для канонизации, и сам тег canonical является лишь одним из них. Другие сигналы каноничности, на которые обращает внимание Google, включают перенаправления, шаблоны URL, ссылки и многое другое.

Чтобы выяснить, уважает ли Google ваш пользовательский канонический тег, Search Console — лучший инструмент для этой работы. Используйте отчет «Покрытие» инструмента проверки URL в Search Console, чтобы определить случаи, когда Google выбирает каноническую ссылку, отличную от выбранной вами.

Отчет «Покрытие» в Google

Несоответствие канонических адресов

Вы также можете найти массовый отчет об ошибках каноникализации в отчете об охвате «Исключенные» с пометкой «Дубликат, Google выбрал каноникал, отличный от пользовательского».

Отсутствие ошибок канонического/индексационного смешанного указания

Если страница A канонически связана со страницей B, а страница B является индексируемой, то не надо ставить тег «noindex» на страницу A, так как это пошлет смешанные сигналы для поисковых систем.

Иначе говоря, если URL является индексируемым, не стоит канонизировать на него «неиндексируемые» страницы.

Дружественная структура URL-адресов

Общее правило заключается в том, чтобы максимально упростить URL-адреса.

Обычно это означает:

  • использование более коротких, читаемых человеком URL-адресов, когда это возможно
  • избегать ненужных параметров, таких как идентификаторы сессий или параметры сортировки
  • разбитые относительные ссылки, которые вызывают «бесконечные пробелы» (бесконечные URL).

Также важно помнить, что Google может использовать ваш URL для создания хлебных крошек для вашего сниппета в результатах поиска, поэтому использование простых, богатых ключевыми словами URL также может помочь вам увеличить количество кликов.

Чтобы узнать больше, в Google есть хорошая документация по структуре URL (у Яндекса тоже есть документация по структуре)

Контент может быть отображен с помощью JavaScript

Если вы дошли до этого момента и уже убедились, что Google действительно индексирует ваш важный контент, то, скорее всего, у вас нет проблем с рендерингом JavaScript. Тем не менее, если у вас возникли проблемы в этих областях, а ваш сайт использует JavaScript, то виновником может быть именно он.

Проверить, может ли Google отобразить ваш сайт с базовым JavaScript, — это инструмент Google Mobile-Friendly Test и функция «Test Live URL» в Google URL Inspection Tool в Search Console. Выберите «View Rendered Page» в Search Console, чтобы просмотреть рендеринг DOM, сообщения консоли JavaScript и ошибки загрузки ресурсов.

Важные CSS, JS и изображения не заблокированы файлом robots.txt

Если поисковые системы не могут отобразить вашу страницу, возможно, причина в том, что ваш файл robots.txt блокирует важные ресурсы. Много лет назад SEO-специалисты регулярно блокировали доступ Google к файлам JavaScript, потому что в то время Google не отображал много JavaScript, и они считали, что это пустая трата времени. Сегодня Google необходимо получить доступ ко всем этим файлам, чтобы визуализировать и «увидеть» вашу страницу, как человек.

Лучшей практикой является визуальная проверка файла robots.txt и убедитесь, что вы не блокируете важные файлы изображений, CSS или JavaScript, которые не позволят поисковым системам отобразить вашу страницу. Вы также можете использовать инструмент Google URL Inspection Tool для обнаружения любых заблокированных ресурсов, как показано здесь.

Проверка в Google Search Console

Примечание: совершенно нормально, если некоторые JavaScript или CSS заблокированы robots.txt, если они не важны для отображения страницы. Заблокированные сторонние скрипты, как в приведенном выше примере, не должны вызывать беспокойства.

3. Мета- и структурированные данные

Здесь мы рассмотрим метаданные и структурированные данные — «закулисную» информацию, которая не отображается на странице, но может помочь поисковым системам понять ваш контент, повлиять на то, как вы отображаетесь в результатах поиска, и даже помочь вам занять более высокое место.

Страница содержит элемент заголовка title

Ваш URL должен содержать один тег title с текстом, описывающим вашу страницу. К счастью, отсутствующие или пустые теги title очень легко обнаружить:

  • Веб-браузеры обычно отображают заголовок в заголовке вкладки.
  • Большинство инструментов SEO предупреждают об отсутствии и/или пустых тегах заголовка.
  • Вы можете быстро проверить свой заголовок с помощью расширений (например, Meta SEO Inspector)

Если ваш заголовок отсутствует или пуст, обязательно добавьте его!

Главные ключевые слова идут в начале заголовка (первые 60 знаков)

Google не отрицает, что заголовки могут быть очень длинными. Традиционно большинство SEO-специалистов рекомендуют не превышать 55-60 символов, поскольку это предел того, что Google обычно отображает в результатах поиска (на основе длины пикселя).

Более длинные заголовки также могут быть проблематичными, поскольку они часто состоят из шаблонов, частей заголовков, которые повторяются снова и снова в различных разделах вашего сайта, что Google не рекомендует делать.

Независимо от длины вашего заголовка, хорошая идея — держать важные ключевые слова в первых 60 символах, где пользователи действительно могут увидеть их в результатах поиска. Сохранение важных ключевых слов в видимой части заголовка может оказать значительное влияние на количество переходов по ссылкам (CTR).

Посмотреть, как будут выглядеть метатеги можно в сервисе https://opentags.io/

Уникальность тега заголовка

Последняя проверка тега title — убедиться, что он уникален в пределах сайта. Несмотря на то, что за дублирование заголовков не предусмотрено наказание, Google поощряет использование уникальных заголовков и не поощряет повторяющиеся шаблонные заголовки. Уникальные заголовки помогают поисковым системам различать ваш контент и определять его ценность для пользователей.

Большинство SEO-сервисов легко выявляют ошибки в дублирующих заголовках.

Если вы хотите проверить только одну страницу, простой способ — объединить операторы site: и intitle: для поиска точного совпадения заголовков на вашем сайте, как показано ниже:

site:ilyapronin intitle: «Справочник сео».

В результате вы получите вот такой результат. Надеюсь, вы увидите только один результат.

Найдена единственная страница

Содержит уникальное метаописание

Метатег description остается важными, поскольку поисковые системы могут использовать их, если сочтут, что ваше описание подходит к тому, что они могут извлечь из страницы, а хорошее описание также может помочь в CTR.

Но если описания дублируются, то вероятность их показа сильно снижается.

Поскольку обнаружить дубликаты описаний непросто вручную, обычно это делается с помощью SEO-краулера (программы или сервиса).

Уникальная фавиконка favicon

Иконки сайтов важны, поскольку Google и Яндекс отображают их рядом с вашим сниппетом в результатах мобильного поиска, как в приведенном ниже примере.

Пример favicon

Наличие четкого фавикона, который выделяется, может повлиять на ваш органический CTR. Как правило, определить, есть ли на вашем сайте фавикон, можно, просто взглянув на вкладку браузера.

OG и социальные метаданные

Для ясности: разметка вашего контента с помощью Open Graph и социальных метаданных (таких как карточки Twitter) нисколько не повлияет на рейтинг Google. Но социальные метатеги влияют на то, как ваш контент отображается в социальных сетях, таких как Вконтакте, Одноклассники, Facebook, и других, что может повлиять на то, как вашим контентом делятся, на него ссылаются и, в конечном итоге, может повлиять на ваше ранжирование.

Большинство современных систем CMS позволяют легко настроить OG и другие социальные метаданные, и даже задавать значения по умолчанию для этих параметров, поэтому лучше не оставлять их пустыми.

Структурированная разметка

Сначала несколько вопросов и ответов о разметке Rich Snippet Markup:

Являются ли структурированные данные сами по себе фактором ранжирования? Нет.

Могут ли структурированные данные помочь мне в ранжировании? Да, они могут помочь Google понять содержание вашей страницы.

Могут ли структурированные данные повлиять на CTR? Да, Google поддерживает несколько типов богатых сниппетов, основанных на структурированных данных.

В настоящее время почти каждый URL-адрес должен иметь структурированные данные, которые поддерживают богатые сниппеты Яндекс и Google. Будь то разметка статей, идентификация автора и/или организации, обзоры продуктов или даже разметка рецептов, вы должны стремиться к тому, чтобы ваши структурированные данные были как можно более четкими и подробными.

Хотя то, насколько сильно поисковые системы используют структурированные данные, является предметом споров, можно с уверенностью сказать, что они определенно поддерживают разметку, о чем можно убедится в справке

Проверка разметки

Проверить разметку можно в сервисе https://validator.schema.org/

4. Контент

Теперь давайте рассмотрим содержание страницы. Многие из этих пунктов не относятся к области «технического SEO», но они могут вызвать значительные проблемы с ранжированием, если их не решить.

Нет существенного дублирования контента

Хотя поисковики не будет наказывать вас за дублирование контента, дублирующиеся страницы обычно отфильтровываются из результатов поиска, поскольку Яндекс и Google стремятся показывать страницы с различной информацией.

Небольшое количество дублированного контента на странице естественно и часто не представляет проблемы, но когда большая часть вашего контента «существенно похожа» на другой контент, найденный в Интернете или на вашем собственном сайте, это может вызвать проблемы.

Хотя мы уже обсуждали решение проблем дублированного контента на вашем собственном сайте с помощью каноникализации, тего в noindex и контроля robots.txt, полезно также убедиться, что вы обнаружили дублированный контент, который существует как на вашем сайте, так и, возможно, во всем Интернете.

Четыре различных способа поиска дублированного контента:

  • Сервис text.ru найдет дублированный контент в интернете (можно проверять отдельную страницу бесплатно или весь сайт сразу за небольшую сумму)
  • Сервис siteliner.com — найдет дубликаты внутри сайта
  • Программа Screaming Frog SEO Spider — ищет внутри сайта
  • Можно оценить визуально, если какие-то большие блоки информации повторяются по всем страницам сайта, то они снижают уникальность отдельно взятой страницы на сайте. Иногда повторяющийся текст превышает по объему содержание страницы, в итоге для поисковых систем все страницы становятся очень похожи

Нередко можно обнаружить, что ваш контент дублируется в Интернете (чаще всего на каких-то непонятных сайтах), обычно это не является проблемой, если только эти сайты не опережают вас. В таких случаях вы можете подать жалобу DMCA. Еще лучше попросить сайты-нарушители сослаться на вас как на источник оригинального контента или добавить междоменную каноническую ссылку.

Соблюдается иерархия тегов HTML

На самом деле Google все равно, как вы организуете свою страницу, лишь бы структура была понятной. Как правило, это означает упорядочивание контента с помощью заголовков в иерархическом порядке. Большинство SEO-исследований показывают сильную связь между использованием заголовков и рейтингом Google, поэтому рекомендуется использовать заголовки для разумной и логичной организации вашего контента.

Структура заголовков H1-H6

Кроме того, один h1 по-прежнему рекомендуется для доступности, поэтому будет хорошо, если ваш заголовок будет следовать этому правилу.

Контент ориентирован на ключевые слова

На протяжении многих лет таргетирование по ключевым словам было основой многих SEO-аудитов сайта. Хотя сегодня Google гораздо более изощренно подходит к пониманию того, о чем идет речь на страницах, все же нелишним будет проверить, что на вашей странице в ключевых местах присутствуют целевые ключевые слова и связанные с ними фразы.

Куда обычно прописывают ключевые слова:

  • URL
  • тег заголовка
  • Мета-описание
  • Заголовок
  • Подзаголовки
  • Основной текст
  • Атрибуты alt изображения

Контент не нарушает рекомендации Яндекс и Google по качеству

Опытные SEO-специалисты часто могут с первого взгляда определить, является ли контент спамом или заслуживает ли он шанса на ранжирование. В рамках процесса аудита неплохо бы убедиться, что страница соответствует минимальным стандартам качества и не нарушает рекомендации поисковых систем. Ознакомтесь с признаками некачественных сайтов по Яндексу.

Избегайте элементов мешающих просмотру страницы

Всплывающие окна и баннеры, мешающие просмотру контента, — обычная особенность сайтов, особенно мобильных.

К сожалению, эти элементы могут стать причиной снижения рейтинга сайта.

Всплывающие окна по юридическим причинам (например, согласие на использование файлов cookie) и те, которые занимают лишь небольшое пространство, обычно не вызывают беспокойства. Тем не менее, если ваш мобильный URL встречает вас огромным рекламным баннером, заполняющим весь экран, это, скорее всего, то, что вы хотите отметить.

Избегайте перегруза рекламой

Обилие рекламы — это еще одна вещь, за которую поисковые системы могут наказать вас, если сочтут, что реклама слишком сильно отвлекает от вашего контента.

Как и в случае с навязчивым контентом, лучше всего посмотреть на свою страницу в мобильном браузере, чтобы понять, насколько легко перейти к основному содержанию. Если эта задача усложняется из-за большого количества рекламы, вам, вероятно, стоит отметить это в своем аудите и поэкспериментировать с уменьшением потока рекламы в верхней части страницы.

Контент не загружается в iFrame

Загрузка контента в iFrame может быть сложной с точки зрения технического SEO, и Google обычно не рекомендует этого делать.

Обычно при использовании iFrame Google «сплющивает» iFrame с вашим контентом и считает его частью самого контента. Хотя это обычно работает, это может стать проблематичным, если iFrame не загружается или у Google возникают проблемы с доступом к iFrame.

Короче говоря, иногда использование iFrame необходимо или удобно, но по возможности их следует избегать.

Содержимое с ленивой загрузкой видно во ViewPort

Ленивая загрузка становится все более популярной, особенно после появления встроенной поддержки браузерами. Многие CMS-фреймворки, включая WordPress, теперь включают ленивую загрузку изображений по умолчанию.

Когда ленивая загрузка работает правильно, изображения (или другой контент) появляются в окне просмотра (видимая часть веб-браузера), когда это необходимо. Когда все идет не так, контент загружается неправильно и не виден поисковым системам.

Самый простой способ проверки содержимого с «ленивой» загрузкой — использовать инструмент проверки URL Google. После проверки страницы проверьте скриншот и HTML, чтобы убедиться, что все изображения загружены правильно. Для более технически подкованных пользователей Google предлагает сценарий Puppeteer, использующий безголовый Chrome.

Поддержка постраничной загрузки для бесконечной прокрутки

Как и ленивая загрузка, бесконечная прокрутка может быть хороша для удобства пользователей, но не очень хороша для поисковых систем. При неправильной настройке она может скрыть информацию от Google.

Правильным способом реализации бесконечной прокрутки является постраничная загрузка, то есть URL меняется по мере того, как посетитель прокручивает страницу вниз. Пример можно посмотреть здесь.

Это позволяет пользователям делиться и добавлять в закладки определенные страницы вашего контента, а также позволяет поисковым системам индексировать отдельные разделы вашего контента. Google рекомендует сигнализировать постраничную загрузку с помощью History API, который сообщает браузеру, когда обновлять отображаемый URL по мере прокрутки страницы.

Текущие даты публикации и обновления

Добавление даты публикации к вашему контенту вряд ли окажет прямое влияние на рейтинг, но может сильно повлиять как на CTR, так и на сигналы вовлеченности пользователей. Google напрямую отображает даты в результатах поиска, что может повлиять на клики пользователей.

Пример даты публикации в результатах поиска

Если вы решили отображать даты, многие SEO-специалисты предпочитают отображать дату последнего изменения или последнего обновления, чтобы показать читателям, что контент свежий и актуальный. Например, вместо «Published On» вы можете написать «Last Updated» — при условии, что информация соответствует действительности. Google знает, когда вы действительно обновили свой контент, поэтому вы не сможете обмануть его, даже если попытаетесь это сделать.

Несколько общих рекомендаций по отображению точных дат:

  • Отображайте видимую для пользователя дату, обычно в верхней части страницы.
  • Включите свойства «datePublished» и «dateModified» в разметку Schema.
  • Сохраняйте последовательность дат. Например, несколько дат на странице могут сбить Google с толку.

Уточните, кто является автором и/или издателем

Хотя Google не подтверждает авторство как фактор ранжирования, он подтверждает отслеживание информации об авторстве как сущности и работает над тем, чтобы не только определить автора страницы, но и связать этого автора с другими работами в Интернете.

Более того, Руководство Google по оценке качества поиска поддерживает это, поощряя специалистов по оценке прилагать большие усилия для определения репутации автора и/или издателя. Контент анонимных или малорепутационных авторов/издателей часто оценивается как «Низкое» качество, в то время как контент высокорепутационных авторов/издателей часто оценивается как «Высокое» или «Наивысшее».

Как правило, Google может выяснить, кто является автором и издателем данного материала, но лучше всего помочь ему в этом. Несколько советов:

  • Для конкретных авторов убедитесь, что автор четко указан на странице.
  • Включите данные об авторе в разметку Schema.
  • Связывайте автора со страницей профиля автора, которая, в свою очередь, ссылается на профили в социальных сетях и другие статьи того же автора.
  • Включите разметку «издатель» в вашу схему статей (или другие типы схем)
  • Четко указывайте издателя и контактную информацию на страницах «О нас» и «Контакты».

Укажите подробную информацию о компании

Для коммерческих сайтов важна информация о компании: указываете максимум информации о компании, которая стоит за сайтом:

  • Страница о компании, где желательно расписать не только историю, но и перечислить ключевых сотрудников, руководство, показать фотографии офисов, магазинов и т.п.
  • Страница контактов с контактной формой и перечислением способов связи
  • Добавить информацию о компании в разметку Schema.org
  • Свяжите сайт и личные кабинеты Яндекс.Справочника и Google My Business

Если не понятно, кто стоит за сайтом (бизнесом), то такой сайт может быть ограничен в ранжировании. Поисковые системы стремятся выдавать пользователям надежные результаты.

Особенно это актуально после введения Яндексом фильтра за некачественный бизнес (там главным образом смотрятся отзывы, но также исключаются из поиска сайты фейковых компаний).

Сайт не фильтруется при включенном «Безопасном поиске»

Миллионы пользователей по умолчанию используют фильтры «Безопасного поиска» в браузерах и настройках поисковых систем (чтобы их отключить, нужно специально зайти в настройки). Фильтры не допускают попадания в результаты поиска откровенных материалов, например, порнографии.

В большинстве случаев эта система работает отлично.

Иногда поисковая система может пометить сайт как имеющий откровенное содержание, хотя такового не существует. Иногда это происходит, когда Google путается в вашем контенте (а иногда это может быть связано со взломом вашего сайта и загрузки туда спама).

Если у вас есть сомнения в том, что ваш сайт может сработать в системе безопасного поиска Google, лучше всего провести ручную проверку:

  • Включите SafeSearch в своем браузере
  • Выполните поиск по сайту: поиск по домашней странице вашего сайта и нескольким определенным каталогам
  • Выключите SafeSearch и повторите поиск.
  • Если количество результатов существенно отличается, возможно, ваш сайт фильтруется SafeSearch.
  • Если на вашем сайте нет материалов для взрослых или конфиденциальных материалов и вы считаете, что SafeSearch ошибочно фильтрует ваш контент, вы можете сообщить о проблеме в Google.

5. Ссылки и навигация

Ссылки доступны для сканирования

Вы можете быть удивлены, но существует множество способов создания веб-ссылок.

Некоторые хороши для SEO. Другие, не очень.

Чтобы ссылку можно было сканировать, поисковым системам обычно нужен тег <a> с атрибутом href. И да, многие разработчики создают ссылки без этих атрибутов.

Быстрый способ узнать, сканируются ли ваши ссылки, это использовать расширения для браузера, например SEO Minion, который может подсветить все ссылки (плюс можно отдельно подсветить внутренние и внешние, а еще проверить на битые ссылки)

Расширение SEO Minion

Страница не содержит ссылок на несуществующие страницы и файлы (404)

Страницы ломаются. Интернет буквально усеян 404. Это естественная часть экосистемы. Если вы случайно ссылаетесь на 404-ю страницу, это, как правило, не представляет большой SEO-проблемы.

Тем не менее, ссылки, ведущие на 404, могут быть плохими:

  • Они могут создавать неприятные впечатления у пользователей.
  • остановить поток ссылочного веса, например, PageRank.
  • Ссылки на множество 404 могут быть признаком того, что страница устарела и не поддерживается.

Исправление неработающих ссылок работает лучше, когда вы делаете это масштабно, и ваши усилия могут быть вознаграждены в большей степени, если вы отдаете приоритет внутренним ссылкам. Если у вас очень большой сайт, поиск и исправление каждой 404-й ссылки может оказаться низкорентабельным мероприятием, хотя рентабельность инвестиций возрастает с увеличением важности каждой страницы.

Большинство SEO-краулеров могут определять неработающие ссылки и 404. Если вам просто нужно проверить одну страницу, многие расширения Chrome, тот же SEO Minion, легко справятся с этой задачей.

Ссылки используют описательный якорный текст

Ссылки с релевантным якорным текстом обычно имеют большую ценность.

Google использует анкорный текст как сигнал ранжирования, и, согласно патентным документам, он может даже игнорировать ссылки с нерелевантным или общим анкорным текстом.

Наконец, Google обычно не одобряет «чрезмерную оптимизацию», которая может включать ссылки со слишком большим количеством точно совпадающих анкоров, поэтому полезно смешивать разные варианты.

Примеры хороших анкоров:

«список лучших магазинов мороженого в Сиэтле»
«как отменить отправку в Gmail»
«наша страница карьеры»

Примеры универсальных анкоров:

«нажмите здесь»
«читать больше»
«example.com»

Фильтратор не приводит к дублированию контента

Фасетная навигация (фильтратор) может быть очень удобна для покупателей, позволяя им сузить свой выбор при почти бесконечном ассортименте.

Но если вы не будете осторожны, этот почти бесконечный выбор может создать почти бесконечное количество страниц для поисковых систем.

Многие сайты были убиты так называемым SEO-фильтром, специальным модулем, который генерирует страницы под все возможные комбинации фильтров. Хотя некоторое время в 2015-2016 года такой модуль мог дать хороший трафик на сайт, т.к. создавалось большое количество страниц под низкочастотные запросы.

Пример работы фильтратора в категории

Если каждая опция в вашей многогранной навигации связана таким образом, что каждый раз создается новый URL-адрес, не изменяя существенно содержимое, вы можете непреднамеренно создать миллионы полных дубликатов или близких дубликатов страниц для Google.

Несколько лучших практик для реализации фильтратора:

  • Не создавайте кликабельные элементы для несуществующих опций и не изменяйте содержание страницы.
  • Заблокируйте неважные опции фильтратора в robots.txt.
  • Используйте noindex или каноникализацию для URL, которые вы хотите исключить из индекса.
  • Используйте инструмент «Параметры» Google Search Console для определения параметров.

Страницы с постраничной разбивкой имеют явные ссылки

Недавно Google прекратил поддержку разметки rel=prev/next, хотя другие поисковые системы продолжают ее использовать. Это означает, что основной способ, с помощью которого Google находит пагинационный контент, — это ссылки на вашей странице.

Интересная реализация постраничной навигации, где каждая страница содержит ссылки на все остальные страницы (без пропусков, как обычно бывает)

В целом, страницы, разбитые на страницы, должны иметь явные ссылки и быть легко просматриваемыми. Сами страницы с пагинацией должны быть самоканонизированными или канонизированными на страницу «посмотреть все», содержащей все записи.

Существует множество деталей и ловушек, в которые можно попасть при работе с пагинацией. Если интересно, мы настоятельно рекомендуем статью Патрика Стокса из Ahref о работе с пагинацией.

Страница не связана с цепочками перенаправлений

Аналогично совету не ссылаться на неработающие страницы 404, часто полезно проверять исходящие ссылки на наличие перенаправлений и цепочек перенаправлений.

Страницы в Интернете часто перемещаются, и со временем эти перемещения могут привести к появлению длинных цепочек перенаправлений. Google заявил, что будет отслеживать до 5 перенаправлений за попытку — и может предпринять множество попыток, чтобы в итоге обнаружить конечный URL.

Для ясности, это, как правило, незначительная проблема, из-за которой не стоит терять сон. Исправление цепочек перенаправлений снижает вероятность ошибок при переходе и, таким образом, помогает сохранить ссылочную массу. С другой стороны, небольшое количество перенаправлений 3xx — это совершенно нормально, и их исправление, скорее всего, не принесет больших результатов.

Дополнительно отмечу, что на медленном интернете каждое лишнее перенаправление замедляет загрузку страницы, что может сильно испортить впечатление для пользователей смартфонов на медленном интернете.

6. Изображения

Знаете ли вы, что если бы поиск изображений Google был собственной поисковой системой, то на него пришлось бы более 20% от общей доли рынка поисковых систем? (У Яндекса наверняка похожая ситуация)

Тем не менее, рейтинг в поиске изображений — не единственная причина для оптимизации изображений, поскольку изображения могут играть важную роль в общем SEO.

Изображения содержат описательные атрибуты alt

Как правило, изображения нуждаются в атрибутах alt по трем основным причинам:

  • Атрибуты alt помогают поисковым системам понять изображение.
  • Для изображений, которые ссылаются на другой URL, атрибут alt действует как текст ссылки.
  • Доступность: программы для чтения с экрана и другие приложения полагаются на alt-текст для правильного понимания страницы.

Честно говоря, исправление двух (или трех) недостающих alt-текстов, скорее всего, не сильно повлияет на SEO, но в масштабе и при последовательном применении описательный alt-текст может помочь Google добавить контент к вашей странице и изображениям, а также помочь вам ранжироваться.

Держите свой alt-текст кратким, но описательным. Лучшие alt-тексты — это те, которые будут наиболее понятны человеку, использующему программу для чтения с экрана, который не может видеть изображение.

<img src="pupdanceparty.gif" alt="Щенки танцуют">

Высота и ширина изображений определены

Хотя определение высоты и ширины изображений не является прямым фактором ранжирования Google, отсутствие размеров изображений может вызвать проблемы с удобством использования, когда браузер пытается загрузить страницу.

Это приводит к кумулятивному сдвигу макета, который может повлиять на ваш показатель Core Web Vitals, что, в свою очередь, может ухудшить ваше ранжирование.

Проблема с показателем CLS

Поскольку сдвиг макета является действительно важной проблемой, лучше всего провести аудит скорости вашего сайта с помощью такого инструмента, как Google Page Speed Insights, и посмотреть, что отражает ваш показатель CLS. Если он низкий, то велика вероятность того, что у вас есть изображения без определенных размеров.

Используйте описательные заголовки, подписи, имена файлов и текст для изображений

Помимо текста alt, Google использует множество других сигналов, чтобы определить, о чем изображение и как оно связано с вашим контентом. К таким сигналам относятся:

  • Название изображения
  • Надписи
  • Имена файлов
  • Текст, окружающий изображение

В идеале, для обеспечения максимальной видимости, каждый из этих элементов должен быть определенным, описательным и уникальным.

Чаще всего люди пренебрегают элементом №1 — именем файла. Человекочитаемое имя файла, в котором в идеале используются описательные ключевые слова, — это то, что нужно.

Плохое имя файла:

/590k9985x-9974-Screen-Shot-2021-05-22-at-6.36.00-PM.jpg

Лучшее имя файла:

/my-new-puppy.jpg

Изображения указываются в карте сайта изображений

Для лучшего обнаружения и индексирования поисковыми системами полезно помещать изображения в файл sitemap или файл image sitemap специально для изображений, который может выглядеть следующим образом:

sitemap.xml для изображений

Это актуально для сайтов у которых изображения играют важную роль. Для обычного корпоративного сайта или типового интернет-магазина с неоригинальными изображениями это бессмысленно.

Следует отметить несколько моментов, связанных с картой изображений:

  • В отличие от обычных URL-адресов sitemap, URL-адреса image sitemap могут находиться на другом домене, что позволяет использовать CDN.
  • Каждый URL-адрес может содержать до 1 000 изображений.
  • Карта сайта изображений может содержать ряд дополнительных элементов, таких как подпись, заголовок, лицензия и географическое местоположение

7. Мобильная версия

В эпоху индексации Google в первую очередь для мобильных устройств, кажется, осталось очень мало сайтов, не дружественных к мобильным устройствам. Тем не менее, существует ряд лучших практик, которые все еще мешают веб-сайтам и могут ухудшить их видимость в результатах поиска.

Проходит тест на совместимость с мобильными устройствами

Проще говоря, вы хотите знать, проходит ли ваш сайт тест Google на удобство для мобильных устройств. Сайты, которые не соответствуют критериям Google для мобильных устройств, скорее всего, не будут занимать высокие позиции в результатах мобильного поиска.

Проверка Google Mobile Frinedly Test

Ту же информацию можно найти в отчете об удобстве использования мобильных устройств Search Console. Если страница не прошла тест на совместимость с мобильными устройствами, в каждом отчете указывается, какие проблемы необходимо исправить, например, установить ширину области просмотра или контент шире экрана.

У Яндекса тоже есть инструмент проверки мобильных страниц, но воспользоваться можно только для своего сайта.

Аналогичный инструмент есть в Яндекс

Отзывчивый веб-дизайн

При создании мобильного интерфейса для вашего сайта у вас, как правило, есть три варианта:

  • Отзывчивый веб-дизайн: Предоставление одного и того же содержимого с одного и того же URL-адреса на мобильных и настольных компьютерах, но макет меняется в зависимости от размера экрана.
  • Динамическая подача: Аналогично отзывчивому веб-дизайну, когда URL остается неизменным, но само содержимое может меняться в зависимости от того, какое устройство определяет браузер.
  • Раздельные URL-адреса: При использовании отдельных URL-адресов мобильная версия обслуживается с совершенно другого URL-адреса (часто называемого m.site). Пользователи обычно перенаправляются на нужную версию в зависимости от их устройства.

Хотя каждый из этих методов является действенным, один из них предпочтительнее других: отзывчивый веб-дизайн. Преимущества отзывчивого веб-дизайна многочисленны, включая единый URL-адрес, контент, который не меняется в зависимости от устройства, отсутствие необходимости в перенаправлении, меньшую вероятность ошибок в контенте, простоту в обслуживании, а также возможность для Google просматривать только одну страницу.

Если ваш сайт использует один из других методов, вы все равно сможете получить рейтинг, но вам придется проделать больше работы, чтобы сообщить Google о своих мобильных страницах. Вы должны отдавать предпочтение отзывчивому веб-дизайну всегда, когда это возможно.

Мобильный контент и ссылки соответствуют настольному сайту

Безусловно, самая большая техническая ошибка в мобильном SEO — это когда мобильный контент не соответствует контенту на настольном сайте. Если Google включил первую мобильную индексацию для вашего сайта (как это произошло с подавляющим большинством сайтов), это означает, что любой контент, который «отсутствует» на мобильной версии вашего сайта, может не попасть в индекс, как это было бы на настольной версии.

Проверки контента, который должен быть одинаковым как на мобильной, так и на настольной версии вашего сайта, включают в себя:

  • Мета-теги роботов (например, index, nofollow)
  • Теги заголовков и метаданные
  • Контент
  • Теги заголовков
  • Изображения
  • Ссылки
  • Структурированные данные
  • доступ к robots.txt

8. Скорость

Скорость уже много лет играет роль в факторах ранжирования поисковых систем, а теперь, после обновления Google Core Web Vitals, она стала главной для многих SEO-специалистов.

В этот момент можно было бы ожидать, что вы найдете контрольный список по скорости веб-сайта из 28 пунктов, но это не так. Скорость не является универсальной задачей технического SEO. Одностраничный сайт с минимальным количеством JavaScript будет иметь совсем другие проблемы со скоростью, чем сложный сайт электронной коммерции с большим количеством различных технологий.

Проще говоря, если ваш сайт уже работает быстро, вам, скорее всего, не нужно беспокоиться о многом — ваше исследование должно выявить именно то, что нужно исправить. Здесь мы рассмотрим основные моменты

Контент полностью загружается в течение разумного времени

Наша первая рекомендация, как это ни парадоксально, не имеет технического характера, но является хорошей отправной точкой с точки зрения реального пользователя. Быстро ли загружается ваш сайт, или пользователи испытывают болезненную медлительность?

Сложность любого аудита скорости заключается в том, что каждый инструмент выдает разные оценки. По этой причине достойным базовым показателем является общее время загрузки. Это простое измерение общего времени, которое требуется вашему контенту для загрузки в браузере. Хотя это измерение является слишком базовым для получения полной картины скорости работы сайта, оно может дать вам приблизительное представление о том, является ли ваш сайт быстрым или медленным, или где-то между ними.

Большинство инструментов измерения скорости сайта, таких как GTmetrix или Pingdom, покажут вам общее время загрузки. Еще лучше использовать отчет Site Speed в Google Analytics для измерения времени загрузки по страницам.

Отчет по скорости загрузки в Google Analytics

Хотя не существует установленного эталона среднего времени загрузки, обычно разумной целью является 4-5 секунд. Если ваши страницы загружаются дольше этого времени, скорость — это область, которая, вероятно, стоит вам трафика и удовлетворенности посетителей.

URL проходит оценку Core Web Vitals от Google

По мере того как Google развивал использование скорости в качестве фактора ранжирования, сегодня самым прямым способом проверки сайта на скорость является оценка по Core Web Vitals.

Существует много, много способов измерения показателей CWV. Вот несколько наиболее распространенных:

  • Запустить аудит Lighthouse в Chrome
  • Отчет Core Web Vitals в Search Console
  • Инструмент Page Speed Insights

После проведения аудита эти инструменты выдают вам список предложений по решению проблем с показателями скорости

Пример рекомендаций от Google Page Speed

Скорее всего, вы не сможете идеально решить каждый пункт аудита, но цель состоит в том, чтобы достичь «хорошего» результата в трех ключевых областях:

  • Отрисовка самого крупного элемента (LCP): 2,5 секунды или лучше
  • Задержка первого ввода (FID): 100 миллисекунд или быстрее
  • Кумулятивный сдвиг макета (CLS): 0,1 секунды или меньше.

Помните, что для повышения рейтинга не обязательно иметь «хорошие» показатели по всем метрикам. Даже небольшие улучшения могут помочь вам. Также имейте в виду, что Google оценивает скорость как «незначительный» фактор ранжирования, часто описывая его как «ограничитель». Тем не менее, скорость очень важна для пользователей и обычно влияет на такие показатели вовлеченности, как показатель отказов.

Наконец, помните, что для каждого URL обычно отображаются два набора показателей Core Web Vital: один для настольных компьютеров, другой для мобильных. Это важно, потому что в настоящее время Google планирует повысить рейтинг страниц с хорошими показателями CWV только для мобильного рейтинга (хотя оптимизировать работу с настольными компьютерами тоже не помешает).

Решение популярных проблем со скоростью

Аудит Core Web Vitals может оказаться немного запутанным, поскольку проблемы всего сайта и передовые методы могут быть скрыты при аудите на уровне страницы. Независимо от ваших оценок CWV, есть несколько лучших практик, которые применимы ко многим веб-сайтам, и решение этих проблем может помочь вам избежать распространенных «ловушек скорости».

Хотя этот список не является исчерпывающим, если ваш сайт нуждается в улучшении, поиск областей, на которые следует обратить внимание, может определенно помочь.

Не смотря на то, что Google Page Speed это инструмент от Гугл, все рекомендации по ускорению актуальны для любых сайтов, любых регионов и поисковых систем.

Оптимизация изображений

Одним из самых больших факторов, вызывающих медленную работу веб-сайтов, являются изображения. Убедиться в том, что файлы изображений не слишком велики, часто имеет большое значение.

Кроме того, документация Google рекомендует несколько других методов оптимизации изображений, в том числе:

  • Использование CDN для изображений
  • сжатие изображений
  • Замена анимированных GIF-файлов видеороликами
  • Ленивая загрузка изображений
  • предоставление отзывчивых изображений
  • Предоставление изображений с правильными размерами
  • Использование изображений в формате WebP

Включите сжатие текста

Мы рекомендуем использовать Gzip, программное приложение для сжатия файлов, чтобы уменьшить размер ваших CSS, HTML и JavaScript файлов для более быстрой обработки.

Оптимизируйте CSS и JavaScript

CSS и JavaScript — это две наиболее потенциально медленные вещи, которые могут замедлить работу вашего сайта, особенно если серверу необходимо загрузить и выполнить эти файлы. В частности, Google рекомендует следующие меры по оптимизации:

  • Минимизировать CSS
  • Удалите неиспользуемый CSS
  • Минимизировать JavaScript
  • Сократить время выполнения JavaScript
  • Устранить блокирующие рендеринг ресурсы

Если у вас WordPress, то все эти задачи решаются установкой специализированных плагинов.

Улучшение времени отклика сервера

Уже много лет мы наблюдаем сильную корреляцию между временем отклика сервера и позициями в Google.

Исправить время отклика может быть легче сказать, чем сделать. Во-первых, важно определить узкие места, которые могут замедлять вашу работу. Общими виновниками могут быть ваш сервер, база данных, CMS, темы, плагины и многое другое.

Для пользователей WordPress компания Cloudflare предлагает интересное решение по сокращению времени до первого байта, которое вы можете рассмотреть. В противном случае, Google также предлагает несколько лучших практик.

Используйте кэширование браузера

Браузеры кэшируют много информации (таблицы стилей, изображения, файлы JavaScript и многое другое), чтобы при возвращении посетителя на ваш сайт браузеру не пришлось перезагружать всю страницу. Вы можете установить Cache-Control на то, как долго вы хотите кэшировать эту информацию. Google предлагает дополнительную информацию об использовании кэширования здесь.

Используйте сеть распространения контента

Хотя этот вопрос напрямую не рассматривается при аудите Core Web Vital, использование сети распространения контента (CDN) может помочь решить многие реальные проблемы скорости для реальных пользователей. CDN ускоряют работу вашего сайта за счет хранения файлов в разных точках мира и ускорения доставки этих ресурсов по запросу пользователей.

Существуют буквально сотни CDN, которые вы можете использовать. Несколько наиболее популярных из них включают Cloudflare, Fastly и другие.

9. Безопасность

Вопросы безопасности обычно не являются первым, о чем задумываются при проведении технического SEO-аудита, но если их не решить, то проблемы безопасности могут серьезно подпортить рейтинг вашего сайта. К счастью, есть несколько проверок, которые вы можете сделать, чтобы убедиться, что ваш сайт находится на должном уровне.

Сайт использует надлежащий HTTPS

Да, использование HTTPS является официальным сигналом ранжирования Google. Технически, это небольшой сигнал и классифицируется как «брекер». Тем не менее, последние обновления браузеров и ожидания пользователей означают, что HTTPS является обязательным условием в современном Интернете.

Пример незащищенного сайта

Аудит SSL/HTTPS прост, поскольку большинство браузеров просто предупреждают вас при попытке посетить сайт, который не зашифрован. Убедитесь, что вы заходите на сайт по протоколу HTTP (без буквы «S»), если нет перенаправлений.

Отсутствие взломанного контента, вредоносных программ или других проблем с безопасностью

В большинстве случаев, если ваш сайт страдает от взломанного контента или проблем с безопасностью, это легко обнаружить по нескольким причинам:

  • Если у вас настроена Google Search Console, Google обычно уведомляет вас не только по электронной почте, но и в приложении.
  • Основные браузеры, включая Chrome, при попытке зайти на ваш сайт, скорее всего, покажут посетителям предупреждение.

Если вы заметили внезапное падение трафика, которое не можете объяснить, стоит быстро проверить его на наличие этих проблем безопасности.

Хотя Search Console отлавливает большое количество взломанного контента, она не отлавливает все. Если вы подозреваете, что на ваш сайт попал спам или другой тип атаки, вам стоит воспользоваться сторонним инструментом безопасности для быстрой проверки на наличие серьезных проблем.

Наконец, если у вас нет доступа к Search Console, вы можете просто попробовать перейти на свой сайт с помощью Chrome (лучше всего в режиме инкогнито), чтобы проверить наличие предупреждений о безопасности. Кроме того, вы можете проверить состояние сайта с помощью инструмента безопасного просмотра Google.

10. Обратные ссылки

Если быть честным, обратные ссылки обычно не включаются в большинство технических SEO-аудитов. Правда в том, что большинство SEO-аудитов проводится для того, чтобы убедиться, что страница имеет максимальный потенциал для ранжирования, но одна из основных причин, по которой страница может не ранжироваться, заключается в отсутствии обратных ссылок.

Более того для Google обратный ссылки это один из основных факторов в хоть сколько-нибудь конкурентной тематике. В Яндексе можно занять ТОП-10 только за счет текстовой оптимизации и запросного индекса, в Гугл нет.

URL имеет релевантные обратные ссылки

Поисковые системы оценивают ссылки по-разному. Хотя Google утверждает, что технически возможно ранжирование без значимых обратных ссылок, многие исследования показывают, что сделать это очень и очень сложно.

Если страница с хорошим, релевантным контентом не ранжируется, велика вероятность того, что у нее нет релевантных обратных ссылок.

Хотя существует множество методов поиска и аудита обратных ссылок, как минимум, вы хотите убедиться, что на вашей странице есть сочетание ссылок из надежных внешних источников и внутренних страниц с различными фразами якорного текста, которые точно описывают ваш контент.

Обратные ссылки можно посмотреть в таких сервисах как Megaindex, Serpstat, Ahrefs

Пример анализа ссылок в сервисе Megaindex

Следующие шаги

Поздравляем! Вы завершили технический SEO-аудит сайта.

Технически исправный сайт это необходимое, но не достаточное условие для получение трафика и хороших позиций в ТОП-10. Поэтому дальше следует заняться проектированием структуры сайта, работой над текстовой релевантностью и получением обратных ссылок.

Илья Пронин

Илья Пронин

специалист по SEO продвижению

Обсуждение и вопросы:

0 Комментариев
Оставить комментарий

Ваш адрес email не будет опубликован.