SEO для новичков: 10 основных пунктов технического аудита сайта
Обновлено 30 декабря 2020
Находясь на начальном этапе познания поисковой оптимизации, многие маркетологи и будущие SEO-специалисты сталкиваются со шквалом разнородной информации, которую поначалу трудно упорядочить и структурировать.
Каким аспектам SEO стоит уделить внимание в первую очередь? С чего начать оптимизацию сайта? Как провести первичный технический аудит и обработать полученную информацию? Ответы на эти и многие другие вопросы вы найдёте в данной статье.
P.S. Как бы я не хотел, но всего необходимого в одну (или даже несколько публикаций) не впихнешь (а дьявол, как говорится, кроется в деталях). В общем, есть вариант пройти онлайн-обучение по теме “SEO 2.0 от TexTerra“. Все же, за это время рассказать можно, наверное, все. Но это платно, само собой.
1. Инструкции по индексации
Настройка инструкций для поисковых роботов — едва ли не первое, с чем приходится разбираться каждому начинающему специалисту, и однозначно первое, в чём допускается основная масса фатальных ошибок, препятствующих поисковому продвижению сайта.
В числе наиболее распространённых промахов можно назвать следующие:
Определить, какие инструкции выставлены на страницах внутри вашего сайта, и нет ли каких-то проблем, связанных с неправильным указанием директив robots.txt, Meta Robots или X-Robots-Tag, можно при помощи краулера. Мы будем использовать в качестве инструмента для проведения SEO-аудита Netpeak Spider.
Итак, для анализа поисковых директив нужно сделать следующее:
По итогу сканирования вы сможете получить детализированную информацию несколькими путями:
Таблица с информацией по всем просканированным URL.
По итогу сканирования перед вами предстанет таблица с полным списком просканированных страниц. В столбце «Разрешён в robots.txt» вы увидите, не закрыт ли каждый отдельный URL от индексации, а в столбцах «Meta Robots» и «X-Robots-Tag» будут указаны применённые к данному URL директивы.
Вкладка «Сводка» («Отчёты») на боковой панели.
Выбрав интересующий вас признак, которому соответствуют те или иные страницы, вы отфильтруете результаты сканирования, сосредоточившись исключительно на тех URL, для которых в robots.txt прописан Disallow, или, к примеру, на которых выставлен nofollow, noindex при помощи Meta Robots или X-Robots-Tag.
На основании результатов сканирования программа определяет несколько десятков типов ошибок, в том числе — ошибки (предупреждения), связанные с инструкциями для индексации.
Дашборд с данными о статусе индексируемости.
На вкладке «Дашборд» по соседству с таблицей результатов сканирования информация об индексируемых и неиндексируемых страницах сайта будет представлена в виде круговой диаграммы. Там же можно будет найти диаграмму, наглядно демонстрирующую причины неиндексируемости.
Каждый из сегментов диаграммы кликабелен и действует по аналогии с фильтрацией, которая была описана выше.
2. Метатеги Title и Description
Оптимизация метатегов Title и Description — один из важнейших этапов поисковой оптимизации сайта. Во-первых, их содержимое тщательно анализируется поисковыми роботами для составления общего представления о содержимом страницы. Во-вторых, именно они формируют сниппет страницы в поисковой выдаче.
В разрезе SEO-аудита сайта необходимо проанализировать:
Чтобы выяснить, как обстоит ситуация с данными метатегами в рамках вашего сайта, обязательно отметьте на боковой панели параметры «Title», «длина Title», «Description» и «длина Description».
К слову, если вам нужно, чтобы Title и Description были строго определённой длины, вы можете задать диапазон допустимых значений в разделе «Настройки» → «Ограничения».
В процессе сканирования программа определит длину каждого из метатегов, а на вкладке с ошибками укажет все имеющиеся проблемы Title и Description.
3. XML-карта сайта
Прежде чем приступить к проверке карты сайта, ответьте себе на два вопроса:
Если ответ на оба вопроса «да», специалисту, осуществляющему аудит, остаётся только одно: проанализировать карту на наличие разного рода ошибок. Лучше всего делать это при помощи встроенного в Netpeak Spider инструмента «Валидатор XML Sitemap». Для запуска проверки вам нужно:
*при клике по картинке она откроется в полный размер в новом окне
4. Время ответа сервера
Чем быстрее ваш сайт работает, тем лучше. Это касается скорости ответа сервера, который должен максимально быстро откликнуться на запрос, отправленный вашим браузером, а также скорости загрузки самого контента.
Для анализа обоих показателей мы воспользуемся краулером. Процедура сканирования производится по аналогии с той, что мы описывали выше: главное — не забыть отметить параметры «Время ответа сервера» и «Время загрузки контента» перед стартом анализа.
*при клике по картинке она откроется в полный размер в новом окне
По окончанию сканирования слишком медленные страницы будут отмечены как страницы с ошибкой средней критичности «Большое время ответа сервера».
5. Дубликаты
Полное или частичное дублирование контента внутри сайта, пусть даже ненамеренное, может существенно осложнить путь вашего сайта к вершинам органической поисковой выдачи. Поисковые системы крайне негативно реагируют на дубли, так что в рамках SEO-аудита вам следует обратить внимание на все основные виды дублей внутри своего сайта для их последующего устранения.
Сканируя сайт в Netpeak Spider, вы сможете обнаружить полные дубликаты страницы, а также дубликаты метатегов Title и Description (мы уже говорили о них в параграфе 2), заголовков H1 и текстового содержимого.
6. Контент
Грамотно оптимизированное содержимое страницы должно включать в себя:
Если у вас есть чёткое понимание того, в каких рамках может варьироваться вес изображений, размер H1 и объём текста, их можно задать вручную в разделе «Настройки» → «Ограничения».
Чтобы проверить каждый из указанных выше аспектов, следует:
Если вы хотите вдобавок проверить сайт (раздел сайта, список страниц) на предмет наличия подзаголовков H2 и H3, отметьте соответствующие параметры в пункте «Заголовки H1-H6».
Списки URL, содержащих одну (или более) из ошибок выше, можно отфильтровать и выгрузить в виде отдельного отчёта.
7. Битые ссылки
Существует множество неоднозначных факторов поисковой оптимизации, относительно которых в экспертной среде нет однозначного мнения. Однако битые ссылки (ссылки, отдающие 404 код ответа сервера) точно не относятся к их числу: все опытные специалисты в один голос твердят об их крайне пагубном на оптимизацию сайта.
Поиск битых ссылок — процедура, которую вам предстоит выполнять на регулярной основе, а не только в рамках глобального первичного SEO-аудита.
Для анализа сайта на предмет поиска битых ссылок достаточно будет активировать всего три параметра: «Код ответа сервера», «Content-Type», «Ошибки».
По итогу сканирования вы сможете найти все страницы, отдающие 404 ошибку, в основной таблице с результатами сканирования (напротив них будет указан соответствующий код ответа сервера), на панели «Сводка», а также в списке страниц, отфильтрованных по ошибкам «Битые ссылки» и «Битые изображения».
8. Редиректы
Установки перенаправлений, или редиректов, — обязательный этап оптимизации любого сайта. Редиректы помогают бороться с дубликатами и направлять пользователей на нужные страницы в случае перехода на уже несуществующие URL.
Важно помнить о том, что выставленный на постоянной основе редирект должен отдавать исключительно 301 (не 302) код ответа, а также не должен вести на страницу с дальнейшей переадресацией. Также не забывайте, что для успешной индексации целевой страницы поисковыми роботами она не должна быть закрыта при помощи robots.txt, Meta Robots или X-Robots-Tag.
Таким образом, в числе основных проблем, связанных с переадресацией, можно назвать следующие:
В процессе проведения технического аудита вы сможете выявить на вашем сайте все вышеупомянутые проблемы, а также проконтролировать корректность указания конечных URL для переадресации.
*при клике по картинке она откроется в полный размер в новом окне
9. Атрибут rel=canonical
Не исключено, что на подходе к девятому пункту вам на миг могло показаться, что всё самое важное уже осталось позади. Однако до тех пор, пока в чеклист SEO-аудита не включён анализ атрибута Canonical, его нельзя считать полноценным. Какие же проблемы могут быть связаны с неправильной настройкой Canonical?
Также не стоит забывать о вероятности того, что какие-то из атрибутов были выставлены по ошибке, а потому не позволяют как следует индексироваться важным страницам вашего сайта. Чтобы проконтролировать этот аспект оптимизации, мы рекомендуем воспользоваться фильтрацией по таким ошибкам (предупреждениям низкой критичности) Netpeak Spider, как «Неканонические страницы» и «Дубликаты Canonical URL».
Первая показывает неканонические страницы, у которых URL в теге <link rel=”canonical” /> указывает на другую страницу, вторая показывает страницы с дублирующимися тегами <link rel=”canonical” /> (при использовании этого фильтра все URL будут сгруппированы по параметру «Canonical URL»).
*при клике по картинке она откроется в полный размер в новом окне
10. Смешанный контент
Если ранее вы совершили попытку «переезда» на безопасный протокол HTTPS, но не настроили сайт необходимым образом, вы столкнётесь с таким понятием как «смешанный контент». Оно означает, что на сайте одновременно есть страницы с безопасным и небезопасным протоколом. Чтобы проверить, относится ли это и к вашему сайту, запустите сканирование с параметрами по умолчанию.
Список страниц, протокол которых не изменился после переезда на HTTPS, можно будет найти на боковой панели на вкладке «Сводка».
Также они будут подсвечены как страницы с ошибкой (низкая критичность) «Не HTTPS-протокол».
Коротко о главном
Чтобы провести базовый технический SEO-аудит сайта перед началом работы над новым проектом, включите в него проверку нескольких основных пунктов:
Для анализа вам понадобится краулер, в качестве которого мы использовали Netpeak Spider. который определит все ключевые проблемы сайта для их последующего устранения.
P.S. Для читателей блога действует специальная скидка на покупку лицензий Netpeak Spider – 10%. Чтобы её использовать, на этапе оплаты введите промокод 8018e2e0
Удачи вам! До скорых встреч на страницах блога KtoNaNovenkogo.ru
Источник: ktonanovenkogo.ru