SEO для новичков: 10 основных пунктов технического аудита сайта

SEO для новичков: 10 основных пунктов технического аудита сайта

Обновлено 30 декабря 2020

Находясь на начальном этапе познания поисковой оптимизации, многие маркетологи и будущие SEO-специалисты сталкиваются со шквалом разнородной информации, которую поначалу трудно упорядочить и структурировать.

Каким аспектам SEO стоит уделить внимание в первую очередь? С чего начать оптимизацию сайта? Как провести первичный технический аудит и обработать полученную информацию? Ответы на эти и многие другие вопросы вы найдёте в данной статье.

P.S. Как бы я не хотел, но всего необходимого в одну (или даже несколько публикаций) не впихнешь (а дьявол, как говорится, кроется в деталях). В общем, есть вариант пройти онлайн-обучение по теме “SEO 2.0 от TexTerra“. Все же, за это время рассказать можно, наверное, все. Но это платно, само собой.

1. Инструкции по индексации

Настройка инструкций для поисковых роботов — едва ли не первое, с чем приходится разбираться каждому начинающему специалисту, и однозначно первое, в чём допускается основная масса фатальных ошибок, препятствующих поисковому продвижению сайта.

В числе наиболее распространённых промахов можно назвать следующие:

  • от индексации закрыты страницы, которые должны быть проиндексированы и потенциально могут приносить трафик;
  • от индексации закрыты файлы, влияющие на внешний вид страницы;
  • от индексации закрыты страницы, на которые выставлен перманентный редирект, или которые указаны в качестве канонических;
  • выставлен атрибут rel=nofollow для ссылок на внутренние страницы, за счёт чего теряется часть ссылочного веса.
  • Определить, какие инструкции выставлены на страницах внутри вашего сайта, и нет ли каких-то проблем, связанных с неправильным указанием директив robots.txt, Meta Robots или X-Robots-Tag, можно при помощи краулера. Мы будем использовать в качестве инструмента для проведения SEO-аудита Netpeak Spider.

    Итак, для анализа поисковых директив нужно сделать следующее:

  • Запустите Netpeak Spider.
  • Откройте в основном меню «Настройки» → «Основные».
  • Установите настройки по умолчанию.
  • Чтобы убедиться, что файлы .js и .css не закрыты от индексации, включите проверку JavaScript и CSS.
  • Сохраните настройки и вернитесь к основному окну программы.
  • Перейдите к боковой панели и откройте вкладку «Параметры».
  • Убедитесь, что все параметры в пункте «Индексация» включены.
  • Введите адрес сайта в строку «Начальный URL» и запустите сканирование.
  • По итогу сканирования вы сможете получить детализированную информацию несколькими путями:

  • Таблица с информацией по всем просканированным URL.

    По итогу сканирования перед вами предстанет таблица с полным списком просканированных страниц. В столбце «Разрешён в robots.txt» вы увидите, не закрыт ли каждый отдельный URL от индексации, а в столбцах «Meta Robots» и «X-Robots-Tag» будут указаны применённые к данному URL директивы.

  • Вкладка «Сводка» («Отчёты») на боковой панели.

    Выбрав интересующий вас признак, которому соответствуют те или иные страницы, вы отфильтруете результаты сканирования, сосредоточившись исключительно на тех URL, для которых в robots.txt прописан Disallow, или, к примеру, на которых выставлен nofollow, noindex при помощи Meta Robots или X-Robots-Tag.

  • Вкладка «Ошибки («Отчёты») на боковой панели.
    На основании результатов сканирования программа определяет несколько десятков типов ошибок, в том числе — ошибки (предупреждения), связанные с инструкциями для индексации.
  • Дашборд с данными о статусе индексируемости.

    На вкладке «Дашборд» по соседству с таблицей результатов сканирования информация об индексируемых и неиндексируемых страницах сайта будет представлена в виде круговой диаграммы. Там же можно будет найти диаграмму, наглядно демонстрирующую причины неиндексируемости.

    Каждый из сегментов диаграммы кликабелен и действует по аналогии с фильтрацией, которая была описана выше.

  • 2. Метатеги Title и Description

    Оптимизация метатегов Title и Description — один из важнейших этапов поисковой оптимизации сайта. Во-первых, их содержимое тщательно анализируется поисковыми роботами для составления общего представления о содержимом страницы. Во-вторых, именно они формируют сниппет страницы в поисковой выдаче.

    В разрезе SEO-аудита сайта необходимо проанализировать:

  • на всех ли страницах есть Title и Description;
  • из скольких символов состоят Title (не менее 10 и не более 70 символов в среднем) и Description (не менее 50 и не более 260-320 символов);
  • нет ли дублей, Title и Description внутри сайта;
  • не присутствует ли на странице сразу несколько Title и Description.
  • Чтобы выяснить, как обстоит ситуация с данными метатегами в рамках вашего сайта, обязательно отметьте на боковой панели параметры «Title», «длина Title», «Description» и «длина Description».

    К слову, если вам нужно, чтобы Title и Description были строго определённой длины, вы можете задать диапазон допустимых значений в разделе «Настройки» → «Ограничения».

    В процессе сканирования программа определит длину каждого из метатегов, а на вкладке с ошибками укажет все имеющиеся проблемы Title и Description.

    3. XML-карта сайта

    Прежде чем приступить к проверке карты сайта, ответьте себе на два вопроса:

  • Есть ли на анализируемом сайте XML-карта сайта?
  • Если да, то указан ли её адрес в файле robots.txt?
  • Если ответ на оба вопроса «да», специалисту, осуществляющему аудит, остаётся только одно: проанализировать карту на наличие разного рода ошибок. Лучше всего делать это при помощи встроенного в Netpeak Spider инструмента «Валидатор XML Sitemap». Для запуска проверки вам нужно:

  • Запустить Netpeak Spider.
  • В правом верхнем углу нажать «Запустить» → «Валидатор XML Sitemap».
  • Ввести адрес карты и нажать «Старт» для запуска.


    *при клике по картинке она откроется в полный размер в новом окне

  • Дождаться окончания сканирования и ознакомиться со списком найденных ошибок на боковой панели. Все включённые в карту сайта страницы, на которых были найдены ошибки, можно перенести в основную таблицу, нажав кнопку «Перенести URL и закрыть».
  • 4. Время ответа сервера

    Чем быстрее ваш сайт работает, тем лучше. Это касается скорости ответа сервера, который должен максимально быстро откликнуться на запрос, отправленный вашим браузером, а также скорости загрузки самого контента.

    Для анализа обоих показателей мы воспользуемся краулером. Процедура сканирования производится по аналогии с той, что мы описывали выше: главное — не забыть отметить параметры «Время ответа сервера» и «Время загрузки контента» перед стартом анализа.


    *при клике по картинке она откроется в полный размер в новом окне

    По окончанию сканирования слишком медленные страницы будут отмечены как страницы с ошибкой средней критичности «Большое время ответа сервера».

    5. Дубликаты

    Полное или частичное дублирование контента внутри сайта, пусть даже ненамеренное, может существенно осложнить путь вашего сайта к вершинам органической поисковой выдачи. Поисковые системы крайне негативно реагируют на дубли, так что в рамках SEO-аудита вам следует обратить внимание на все основные виды дублей внутри своего сайта для их последующего устранения.

    Сканируя сайт в Netpeak Spider, вы сможете обнаружить полные дубликаты страницы, а также дубликаты метатегов Title и Description (мы уже говорили о них в параграфе 2), заголовков H1 и текстового содержимого.

    6. Контент

    Грамотно оптимизированное содержимое страницы должно включать в себя:

  • грамотный и уникальный текст объёмом не менее 500 символов;
  • один основной заголовок первого порядка H1;
  • оптимизированные изображения с прописанным атрибутом ALT.
  • Если у вас есть чёткое понимание того, в каких рамках может варьироваться вес изображений, размер H1 и объём текста, их можно задать вручную в разделе «Настройки» → «Ограничения».

    Чтобы проверить каждый из указанных выше аспектов, следует:

  • Запустить Netpeak Spider.
  • В списке параметров на боковой панели обязательно отметить:
  • «Контент» → «Изображения»;
  • «Заголовки H1-H6» → «Содержимое H1», «Длина H1», «заголовки H1»;
  • «Показатели» → «Размер контента».
  • Если вы хотите вдобавок проверить сайт (раздел сайта, список страниц) на предмет наличия подзаголовков H2 и H3, отметьте соответствующие параметры в пункте «Заголовки H1-H6».

  • Ввести адрес сайта и запустить сканирование.
  • После завершения процедуры в основной таблице с результатами сканирования вы увидите столбцы с данными по объёму контента, а также — по длине H1. На боковой панели на вкладке «Отчёты» → «Ошибки» высветятся ошибки, связанные с оптимизацией контента, включая проблемы с заголовками H1, размером контента и отсутствием атрибута ALT у изображений.
  • Списки URL, содержащих одну (или более) из ошибок выше, можно отфильтровать и выгрузить в виде отдельного отчёта.

    7. Битые ссылки

    Существует множество неоднозначных факторов поисковой оптимизации, относительно которых в экспертной среде нет однозначного мнения. Однако битые ссылки (ссылки, отдающие 404 код ответа сервера) точно не относятся к их числу: все опытные специалисты в один голос твердят об их крайне пагубном на оптимизацию сайта.

    Поиск битых ссылок — процедура, которую вам предстоит выполнять на регулярной основе, а не только в рамках глобального первичного SEO-аудита.

    Для анализа сайта на предмет поиска битых ссылок достаточно будет активировать всего три параметра: «Код ответа сервера», «Content-Type», «Ошибки».

    По итогу сканирования вы сможете найти все страницы, отдающие 404 ошибку, в основной таблице с результатами сканирования (напротив них будет указан соответствующий код ответа сервера), на панели «Сводка», а также в списке страниц, отфильтрованных по ошибкам «Битые ссылки» и «Битые изображения».

    8. Редиректы

    Установки перенаправлений, или редиректов, — обязательный этап оптимизации любого сайта. Редиректы помогают бороться с дубликатами и направлять пользователей на нужные страницы в случае перехода на уже несуществующие URL.

    Важно помнить о том, что выставленный на постоянной основе редирект должен отдавать исключительно 301 (не 302) код ответа, а также не должен вести на страницу с дальнейшей переадресацией. Также не забывайте, что для успешной индексации целевой страницы поисковыми роботами она не должна быть закрыта при помощи robots.txt, Meta Robots или X-Robots-Tag.

    Таким образом, в числе основных проблем, связанных с переадресацией, можно назвать следующие:

  • Битый редирект (перенаправление на недоступную или несуществую страницу).
  • Бесконечный редирект (перенаправление с текущей страницы на саму себя).
  • Максимальное количество редиректов (более 4 редиректов в последовательности по умолчанию).
  • Редирект, заблокированный в robots.txt.
  • Редиректы с неправильным форматом URL (перенаправление с неправильным форматом URL в HTTP-заголовках ответа сервера).
  • В процессе проведения технического аудита вы сможете выявить на вашем сайте все вышеупомянутые проблемы, а также проконтролировать корректность указания конечных URL для переадресации.


    *при клике по картинке она откроется в полный размер в новом окне

    9. Атрибут rel=canonical

    Не исключено, что на подходе к девятому пункту вам на миг могло показаться, что всё самое важное уже осталось позади. Однако до тех пор, пока в чеклист SEO-аудита не включён анализ атрибута Canonical, его нельзя считать полноценным. Какие же проблемы могут быть связаны с неправильной настройкой Canonical?

  • цепочка Canonical;
  • Canonical, заблокированный в robots.txt (иными словами, приоритетная для индексации страница отдаёт код ответа, отличный от 200 OK).
  • Также не стоит забывать о вероятности того, что какие-то из атрибутов были выставлены по ошибке, а потому не позволяют как следует индексироваться важным страницам вашего сайта. Чтобы проконтролировать этот аспект оптимизации, мы рекомендуем воспользоваться фильтрацией по таким ошибкам (предупреждениям низкой критичности) Netpeak Spider, как «Неканонические страницы» и «Дубликаты Canonical URL».

    Первая показывает неканонические страницы, у которых URL в теге <link rel=”canonical” /​> указывает на другую страницу, вторая показывает страницы с дублирующимися тегами <​link rel=”canonical” /​> (при использовании этого фильтра все URL будут сгруппированы по параметру «Canonical URL»).


    *при клике по картинке она откроется в полный размер в новом окне

    10. Смешанный контент

    Если ранее вы совершили попытку «переезда» на безопасный протокол HTTPS, но не настроили сайт необходимым образом, вы столкнётесь с таким понятием как «смешанный контент». Оно означает, что на сайте одновременно есть страницы с безопасным и небезопасным протоколом. Чтобы проверить, относится ли это и к вашему сайту, запустите сканирование с параметрами по умолчанию.

    Список страниц, протокол которых не изменился после переезда на HTTPS, можно будет найти на боковой панели на вкладке «Сводка».

    Также они будут подсвечены как страницы с ошибкой (низкая критичность) «Не HTTPS-протокол».

    Коротко о главном

    Чтобы провести базовый технический SEO-аудит сайта перед началом работы над новым проектом, включите в него проверку нескольких основных пунктов:

  • Проверка инструкций по индексации,
  • Проверка правильности заполнения Meta Title и Meta Description,
  • Валидация XML-карты сайта,
  • Анализ времени ответа сервера,
  • Поиск дубликатов,
  • Проверка оптимизации контента,
  • Проверка сайта на наличие битых ссылок,
  • Проверка выставленных редиректов,
  • Проверка атрибута rel=canonical,
  • Поиск смешанного контента, возникшего при попытке переезда на HTTPS-протокол.
  • Для анализа вам понадобится краулер, в качестве которого мы использовали Netpeak Spider. который определит все ключевые проблемы сайта для их последующего устранения.

    P.S. Для читателей блога действует специальная скидка на покупку лицензий Netpeak Spider – 10%. Чтобы её использовать, на этапе оплаты введите промокод 8018e2e0

    Удачи вам! До скорых встреч на страницах блога KtoNaNovenkogo.ru

    Источник: ktonanovenkogo.ru

    НЕТ КОММЕНТАРИЕВ

    Оставить комментарий