Автор: Джефф Кеньон (Geoff Kenyon) – ведущий консультант по маркетингу в Distilled и Moz. Живет и работает в США, штат Калифорния. Специализируется на разработке стратегий продвижения бренда в интернете и повышении его узнаваемости среди потребителей. Длительное время руководил командами профессионалов, которые занимались разработкой и реализацией стратегий интернет-маркетинга для крупных брендов.
Источник: http://moz.com
В своей новой статье Джефф Кеньон представляет список факторов, анализ которых позволит провести качественный технический аудит сайта. В 2015 году заметно расширился список аспектов, которые необходимо учитывать при анализе качества сайта. Прежде всего, это: мобильная оптимизация сайта; региональная оптимизация ресурса; скорость загрузки страниц сайта и другие составляющие.
Грамотно структурированный чек-лист позволит произвести тщательный аудит сайта и выяснить, какие конкретно факторы негативно влияют на его производительность. По итогам проверки команда специалистов сможет разработать серьёзный документ, содержащий технические рекомендации, которые необходимо применить в дальнейшей работе над ресурсом.
Начинать работу имеет смысл с быстрой проверки сайта.
На этом этапе целесообразно придерживаться следующего алгоритма:
1. Для проверки индексации страниц необходимо:
- Выполнить поиск с применением оператора site:.
- Установить точное число страниц в индексе.
- Проверить, всегда ли главная страница сайта показывается в результатах выдачи на первой позиции.
- Сам факт того, что главная страница сайта не показывается в результатах поиска на первой позиции, указывает на наличие определенных технических ошибок на сайте или проблем с индексацией. Так, например, сайт может отличаться плохой архитектурой или некачественной структурой внутренних ссылок. В то же время представитель Google Джон Мюллер (John Mueller) в начале 2015 года заявлял о том, что при поиске с использованием оператора site: главная страница сайта может и не показываться на первой позиции. Более того, по его словам, это не критично.
2. На следующем этапе нужно выполнить проверку статистики органических переходов пользователей на посадочные страницы, используя сервис Google Analytics.
- Следует проверить, соответствует ли этот показатель общему числу страниц ресурса в индексе поиска.
- Данный прием позволит выявить точное число страниц в индексе Google, на которые осуществляются органические переходы, и которые признаются поисковой системой как наиболее качественные.
3. Проверить, как отображается в поиске сайт по брендированным запросам.
- Важно убедиться в том, что главная страница сайта показывается в топ-выдачи, а также проверить, попадают ли в топ поисковой выдачи нужные страницы.
- Если нужные страницы не показываются в первых строчках выдачи – это может свидетельствовать о том, что на ресурс были наложены санкции.
4. После этого осуществляется проверка наиболее важных страниц сайта в кэше Google:
- Необходимо убедиться в том, что содержимое страниц отображается в кэше.
- Кроме того, следует проверить, есть ли в кэше навигационные ссылки.
- Не попали ли в кэш ссылки, которые не видны на сайте.
- В качестве дополнительного совета рекомендуется проверить текстовую версию страницы из кэша. Сделать это поможет специальный букмарклет.
5. Не менее важный этап - проверка того, как отображаются основные лендинги в мобильной выдаче, а также, того, насколько успешно можно отыскать бренд при помощи мобильного поиска:
- Необходимо проверить, появляется ли под ссылкой на сайт отметка «для мобильных» в результатах мобильного поиска.
- Адаптированы ли под мобильные устройства все ключевые посадочные станицы.
- Если хотя бы на один из перечисленных выше вопросов получен отрицательный ответ, это уже свидетельствует о том, что сайт теряет определенный процент переходов из мобильной выдачи.
Далее необходимо проанализировать, насколько грамотно осуществляется оптимизация страниц сайта в целом.
1. Начинать имеет смысл с оценки оптимизации мета-тегов
</p>
<ul>
<li>Прежде всего, они должны быть качественно оптимизированы и уникальны для каждой страницы. </li>
<li>Имеет смысл добавлять в <title> название бренда – это позволит повысить CTR. </li>
<li>Чтобы текст из мета-тега <title> полностью отображался в поисковой выдаче, его длина не должна превышать 55-60 символов (512 пикселей). Увидеть, как будет отображаться текст из мета-тега в поисковой выдаче, можно, используя <a href="http://moz.com/blog/new-title-tag-guidelines-preview-tool" >сервис</a> от компании Moz или Screaming Frog.</li>
</ul>
<p>2. Следующий этап подразумевает оптимизацию тайтлов и метаописаний, поскольку оба эти аспекта влияют на CTR страницы. </p>
<ul>
<li>Это поможет улучшить органический трафик независимо от позиций страницы </li>
<li>Для проверки метаописаний можно использовать инструмент <a href="http://www.tomanthony.co.uk/tools/serp-turkey/" >SERP Turkey.</a> </li>
</ul>
<p>3. Для страниц, отдающих код ответа сервера 404, также необходимо проверить мета теги <descriptions> и <title>. </p>
<p>4. Контент странице должен содержать в себе ключевые фразы. При этом, лучше, если вхождений будет несколько. Также на странице необходимо размещать альтернативные ключевые фразы. </p>
<p>5. Контент для всех критически важных страниц сайта должен быть уникальным и хорошо оптимизированным. </p>
<p>6. Для наиболее значимой ключевой фразы должен применяться тег H1. </p>
<p>7. В имена файлов изображений, содержащих и атрибут <alt>, необходимо включать главную ключевую фразу, связанную с тематикой страницы. </p>
<p>8. Адреса URL важно оптимизировать и присвоить им описания. </p>
<ul>
<li>С одной стороны, использование ключевых фраз в описании адреса ресурса позволяет сайту получить некоторые преимущества при индексации; с другой же стороны этот же приём может негативно отразиться на трафике в случае применения 301 редиректа. </li>
</ul>
<p>9. Что касается очистки URL-ов, то на этом этапе важно придерживаться следующих правил: </p>
<ul>
<li>Не стоит использовать в описании адреса слишком большое количество параметров или идентификаторов сессии. </li>
<li>URL-ы, открытые для индексации поисковыми роботами, должны быть статическими.</li>
</ul>
<p>10. Сокращение URL-ов: </p>
<ul>
<li>Общее правило гласит: короткие URL-адреса лучше воспринимаются пользователями. Хотя, официального ограничения по количеству символов, используемых в указании адреса страницы, не существует - лучше ограничиться 115 символами. </li>
</ul>
<p></p>
<h4>Следующим важным аспектом становится анализ контента страниц сайта</h4>
<p>1. Начинать имеет смысл с оптимизации контента главной страницы сайта: </p>
<ul>
<li>Следует проверить, размещён ли на домашней странице хотя бы один абзац текста. </li>
<li>Достаточно, если на странице будет размещаться текст длиной в 150 слов. Это позволит поисковым системам лучше понимать тематическую направленность сайта и учитывать её при индексации. </li>
</ul>
<p> 2. После этого можно переходить к оптимизации посадочных страниц. </p>
<ul>
<li>Важно убедиться, что на целевых страницах присутствует хотя бы несколько абзацев текста. Далее следует задать себе вопрос: «<i>Достаточно ли на странице контента, чтобы поисковая система смогла выявить её специфику</i>?» </li>
<li>Следующим шагом оцениваем, на странице использован текст шаблона или же уникальный контент. </li>
</ul>
<p>3. Важно также понять, есть ли на странице действительно значимый контент, или же на ней размещаются лишь анкоры и списки ссылок. </p>
<p>4. Далее необходимо оценить грамотность таргетинга ключевых слов: </p>
<ul>
<li>Соответствует ли интент, на который указывают ключевые слова на странице, целям самого лендинга? </li>
<li>Присутствуют ли в заголовках страницы слова, содержащие среднечастотные и низкочастотные запросы?</li>
</ul>
<p>5. Проверка степени каннибализации ключевых слов производится следующим способом: </p>
<ul>
<li>При помощи оператора site: в Google необходимо найти свой ресурс по ключевым фразам. </li>
<li>Далее необходимо отыскать все подобные заголовки страниц и проверить их на дубли. С этой целью можно использовать инструмент <a href="http://moz.com/products/pro" >Moz Pro Crawl Test</a>.</li>
</ul>
<p>6. Также нужно выяснить, способствует ли контент, размещенный на странице, конверсии и несколько он понятен пользователям. </p>
<ul>
<li>Контент, размещенный на странице, должен способствовать повышению осведомлённости пользователей о бренде, продукте или услуге. </li>
</ul>
<p>7. Оценка технического оформления контента на странице – еще один существенный этап. Важно убедиться, что текст отформатирован так, что пользователю удобно и легко взаимодействовать с ним, а именно: </p>
<ul>
<li>Заголовки выделяются при помощи тегов<h>. </h></li>
<li>На страницах сайтов используются изображения. </li>
<li>Текст развит на абзацы и легко читается.</li>
</ul>
<p>8. Желательно, чтобы все публикации на сайте носили чёткие и кликабельные заголовки. </p>
<ul>
<li>Заголовок должен быть понятным, убедительным и вовлекать пользователя во взаимодействие с текстом.</li>
</ul>
<p>9. Ключевым этапом в ходе анализа сайта становится проверка соотношения количества контента к числу рекламных объявлений, публикуемых на сайте: </p>
<ul>
<li>С тех пор, как Google представил алгоритм Panda, количество рекламы на сайте стало учитываться при ранжировании. </li>
<li>Учитывая это, важно убедиться, что уникальный контент на сайте преобладает над рекламным. </li>
<li>В противном случае с индексацией сайта могут возникнуть проблемы.</li>
</ul>
<p></p>
<h4>Еще одним важным этапом аудита сайта становится выявление дублированного контента.</h4>
<p></p>
<p>1. Следует проверить страницы сайта на наличие дублированного контента. При этом важно, чтобы на сайте не встречалось по нескольку страниц с одним и тем же содержимым: </p>
<ul>
<li> В ходе проверки имеет смысл установить, включены ли в URL параметры либо код отслеживания. </li>
<li> Встречается ли абсолютно одинаковый контент на страницах различных категорий.</li>
</ul>
<p>2. Необходимо также проверить наличие дублированного контента в индексе поиска: </p>
<ul>
<li>С этой целью в поисковую строку необходимо ввести фрагмент текста и проверить выдачу. </li>
<li>Важно убедиться, что контент не дублируется на других доменах. </li>
<li>Если контент сайта был заимствован другим доменом, необходимо подать <a href="http://www.google.com/support/bin/static.py?page=ts.cs&ts=1114905" >заявку</a> в Google на удаление дублированного контента </li>
</ul>
<p>3. Далее нужно проверить наличие дублированного контента на поддоменах и зафиксировать все прецеденты. </p>
<p>4. На следующем этапе осуществляется проверка безопасной версии сайта. </p>
<ul>
<li>Её цель – также поиск дублированного контента. </li>
</ul>
<p>5. Наконец, следует проверить и сайты-аффилиаты. </p>
<ul>
<li>Важно отыскать контент, который дублируется на других доменах, принадлежащих компании.</li>
</ul>
<p>6. Так называемые «страницы для печати» тоже могут явиться причиной дублирования контента сайта. Этот аспект тоже важно отследить. </p>
<p> </p>
<h4>Доступность ресурса для индексации является следующим серьёзным пунктом анализа. </h4>
<p>На этом этапе следует: </p>
<p>1. Проверить все файлы robots.txt на сайте: </p>
<ul>
<li>Это позволит выяснить, не был ли случайно заблокирован для поискового робота весь сайт или отдельный его контент. Важно предоставлять поисковым системам возможности индексации ключевого для ресурса содержимого и закрывать нежелательный для индексации контент в robots.txt. </li>
</ul>
<p>2. Проверить JavaScript, Cookies и CSS на предмет отключения: </p>
<ul>
<li>Использовать инструмент <a href="https://addons.mozilla.org/en-us/firefox/addon/web-developer/" >Web Developer Toolbar</a>. </li>
<li>Убедиться, есть ли там контент. </li>
<li>Проверить, работают ли навигационные ссылки.</li>
</ul>
<p>3. Изменить протокол user agent на Googlebot: </p>
<ul>
<li>С этой целью имеет смысл использовать <a href="https://addons.mozilla.org/en-US/firefox/addon/user-agent-switcher/" >User Agent Add-on</a> и убедиться в отсутствии клоакинга.</li>
</ul>
<p>4. Проверить страницы сайта на наличие ошибок категорий 400 и 500. </p>
<p>5. Далее нужно убедиться в том, что ссылки на XML–файлы добавлены в robots.txt. Это необходимо для уведомления поисковых роботов о наличии карты сайта в специальном формате XML Sitemaps. </p>
<p>6. Следующим шагом проверяют представлены ли данные XML Sitemaps ь в Google/Bing Webmaster Tools. </p>
<p>7. Затем важно проверить страницы на наличие мета-тега <noindex>: </p>
<ul>
<li>Имеет смысл убедиться в том, нет ли на сайте страниц, в HTML-код которых по ошибке был добавлен атрибут <noindex>? </li>
<li>Не менее важно отыскать на сайте страницы, которые должны содержать <noindex>, но не содержат его. </li>
<li>Осуществить быструю и лёгкую проверку поможет инструмент Screaming Frog. </li>
</ul>
<p>8. Важно убедиться в том, что атрибут <noindex> не применяется к целевым страницам, в противном случае на них не будут осуществляться органические переходы из выдачи. </p>
<p></p>
<h4>Ключевыми аспектами аудита выступают: архитектура сайта, а также анализ внутренней ссылочной массы</h4>
<p></p>
<p>1.Прежде всего, важно оценить общее количество ссылок на странице: в идеале их должно быть от 100 до 200. Однако эти цифры весьма <a href="http://moz.com/blog/how-many-links-is-too-many" >условны</a>. </p>
<p>2. Далее имеет смысл оценить «вертикальную» ссылочную структуру сайта, а именно: </p>
<ul>
<li>Ссылки, ведущие с главной страницы на страницы категорий. </li>
<li>Ссылки, ведущие со страниц категорий на страницы подкатегорий и товаров. </li>
<li>Ссылки со страниц товаров, ведущие на страницы категорий. </li>
</ul>
<p>3. Не менее важно проверить и «горизонтальную» структуру ссылок: </p>
<ul>
<li>Необходимо отследить ссылки на страницах категорий, ведущие на другие страницы категорий. </li>
<li>Также следует проанализировать ссылки со страниц товаров, ведущие на соответствующие им другие страницы товаров.</li>
</ul>
<p>4. Следующим шагом имеет смысл проверить ссылки, размещаемые внутри контента. </p>
<p>5. Важно следить и за ссылками, которые размещаются в нижней части (футере) сайта: </p>
<ul>
<li>Лучше избегать использования блоков ссылок вместо навигации. </li>
<li>Не желательно также ссылаться на целевые страницы, применяя оптимизированные анкоры.</li>
</ul>
<p>6. Анализ качества анкоров на страницах сайта также выступает значимым аспектом аудита. </p>
<p>7. Важно не упустить из виду битые и неработающие ссылки: </p>
<ul>
<li>С этой целью можно использовать инструменты Link Checker и Xenu. </li>
</ul>
<p></p>
<h4>Оценка технические аспектов сайта выступает критически важным звеном исследования. </h4>
<p>На этой стадии оцениваются следующие факторы: </p>
<p>1. Правильность использования кодов перенаправдения 301. Для проверки качества оформления редиректов имеет смысл применять плагин <a href="https://addons.mozilla.org/en-US/firefox/addon/live-http-headers/" >Live HTTP Headers</a> от Firefox. </p>
<p>2. Важно избежать неверных перенаправлений и анализировать сайт, исходя из этого аспекта. </p>
<ul>
<li>Следует проверять правильность установки кодов перенаправления 302 и 307, а также все аспекты реализации перенаправлений на другую страницу с помощью скрипта на javascript. </li>
<li>Эту процедуру можно проделать при помощи инструмента Screaming Frog.</li>
</ul>
<p>3. Необходимо отслеживать, указывают ли перенаправления на конечный URL, а также отслеживать все цепочки редиректов. </p>
<p>4. Все аспекты реализации перенаправлений с помощью скриптов на javascript важно подвергать глубокому исследованию. </p>
<p>5. Если на сайте присутствует контент, который отображается при помощи iFrames, то он также должен быть тщательно проанализирован. </p>
<p>6. Имеет смысл оценить техническую грамотность реализации на сайте технологии Flash, если таковая используется. </p>
<p>7. Важно проверить сайт наличие ошибок в Google Webmaster Tools. Традиционно Google WMT выдает список технических проблем, связанных с сайтом, таких как: ошибки категорий 400 и 500; страниц, не добавленных в XML-файл Sitemap; и отдельно - страниц, отдающих ошибку 404. </p>
<p>8. Отдельным пунктом выступает анализ XML-файлов Sitemap. На этой стадии важно проверить: </p>
<ul>
<li>Разработаны ли для сайта XML-файлы sitemap. </li>
<li> Не маскируют ли таким образом плохую архитектуру сайта. </li>
<li> Какие проблемы индексации испытывает сайт. </li>
<li> Исполняются ли для XML-файлов sitemaps соответствующие протоколы.</li>
</ul>
<p>9. Далее необходимо проанализировать, используются ли для перенаправления на каноническую версию сайта коды ответа сервера 301. </p>
<p>Также следует проверять: </p>
<p>10. Указан ли каноническая версия сайта в Google Webmaster Tools? </p>
<p>11. Указан ли основной URL при помощи атрибута rel=«canonical»: </p>
<ul>
<li>Здесь также важно убедиться, что атрибута rel=«canonical» указывает именно на исходную страницу сайта.</li>
</ul>
<p>12. Завершая этап, анализируют, применяются ли на сайте абсолютные URL-адреса вместо относительных. </p>
<p></p>
<h4>Одним из наиболее важных аспектов аудита в наши дни является проверка скорости загрузки страниц сайта</h4>
<p>1. Прежде всего, проверяют время загрузки наиболее важных страниц ресурса: </p>
<p>2. Далее, используя инструмент <a href="http://checkgzipcompression.com/" >Gzip Test</a>, необходимо убедиться, что gzip сжатие на сервере для сайта включено. </p>
<p>3. Затем проверяют правильность кэширования. </p>
<p>4. На следующем этапе анализируют наличие на сайте оптимизированных изображений. </p>
<ul>
<li>Узнать о том, как грамотно оптимизировать изображения, можно в <a href="https://developers.google.com/web/fundamentals/performance/optimizing-content-efficiency/image-optimization" >справочном разделе Google</a>.
<br />
</li>
</ul>
<p>4. Далее изучают возможности по оптимизации элементов CSS/JS /HTML. </p>
<p>5. Анализируют качество хостинга: </p>
<ul>
<li>Исследуют возможности использования CDN для оптимизации доставки и дистрибуции контента (в особенности графического) конечным пользователям Интернета. </li>
</ul>
<p></p>
<h4>В наши дни на первое место выходит оценка мобильной версии сайта</h4>
<p></p>
<p>1. В ходе быстрой проверки мобильных аспектов важно убедиться в том, что: </p>
<ul>
<li>Для сайта разработана мобильная версия. </li>
<li>Она правильно функционирует. Если у сайта возникают проблемы с мобильной версией, Google может воспринять это как негативный фактор ранжирования. </li>
</ul>
<p>2. Далее следует убедиться в том, что инструменты аналитики настроены с учётом мобильной версии сайта. Это особенно важно, если мобильный контент для ресурса создается отдельно от основной версии. </p>
<p>3. Если для сайта используется динамические настройки отображения контента, то имеет смысл применять HTTP-заголовок Vary: </p>
<ul>
<li> Этот позволит поисковой системе отличить мобильный контент от содержимого веб-сайта. </li>
<li> Узнать дополнительные подробности можно в разделе <a href="https://developers.google.com/webmasters/mobile-sites/mobile-seo/configurations/dynamic-serving?hl=en" >Google on dynamic serving</a>.
<br />
</li>
</ul>
<p>4. Затем имеет смысл проанализировать, в каких именно аспектах интент пользователей мобильных устройств отличается от интента пользователей ПК. То есть, выяснить, с какими целями они обращаются к мобильной версии сайта, а с какими – к десктопной. </p>
<p>5. С точки зрения технических аспектов важно проверить сайт на наличие неработающих или неверно настроенных мобильных перенаправлений. Редиректы со страниц продуктов веб-версии сайта не должны приводить пользователей на главную страницу мобильной версии. </p>
<p>6. Важно также убедиться в том, что привязка мобильной версии сайта к десктопной осуществляется грамотно, то есть с использованием правильной разметки: </p>
<ul>
<li> Если для сайта разработана мобильная версия, то важно при помощи тега rel=«alternate» указать, что данная версия сайта соотносится с его десктопной версией. </li>
<li>Важно также использовать тег rel=«canonical» для указания веб-версии сайта в качестве исходной. </li>
<li> Официальная документация доступна <a href="https://developers.google.com/web/fundamentals/performance/optimizing-content-efficiency/image-optimization" >здесь</a>. </li>
</ul>
<p></p>
<h4>Особого внимания требует работа с мультирегиональными (международными) сайтами</h4>
<p>1. На первом этапе аудита важно проверить грамотность указания в URL-ах доменных зон: </p>
<ul>
<li> Например: site.com/uk/ или uk.site.com</li>
</ul>
<p>2. Далее необходимо проверить правильность региональных настроек сайта: </p>
<ul>
<li>К примеру, если веб-сайт создается для конкретной страны, специфика региона должна быть прописана в настройках Google WMT? </li>
<li>Если сайт имеет международные разделы, то это также следует указать в настройках WMT? </li>
</ul>
<p>3. На следующем этапе анализируют грамотность использования атрибутов rel="alternate" hreflang="x"</p>
<ul>
<li> Официальная документация доступна <a href="https://developers.google.com/webmasters/mobile-sites/mobile-seo/configurations/dynamic-serving?hl=en" >здесь</a>. </li>
</ul>
<p>4. Если есть несколько региональных версий одного и того же сайта создаются на одном языке (например, обе версии /us/ и /uk/ - на английском языке), необходимо обновить копию сайта, с тем, чтобы они распознавались поисковой системой как уникальные. </p>
<p>5. Важно убедиться, что валюта сайта совпадает со страной, на которую он ориентирован. </p>
<p>6. При этом структура URL-ов сайта должна быть на языке оригинала: </p>
<ul>
<li>Крайне нежелательно применять для URL-адресов настройки языка по умолчанию. </li>
</ul>
<p></p>
<h4>На заключительном этапе проверяют настройки аналитики</h4>
<p></p>
<p> 1. Важно использовать код отслеживания для каждой страницы сайта: </p>
<ul>
<li>Проверить грамотность установки кода можно с помощью фильтра «custom», который доступен в инструменте Screaming Frog Crawl. </li>
</ul>
<p>2. Важно убедиться, что все инструменты сервиса Google Analytics настроены верно и показывают статистику без искажений. </p>
<p>3. Также важно убедиться в том, что аналитика по сайту позволяет отслеживать статистику в международном поиске. </p>
<p>4. Социально-демографические аспекты также должны учитываться верно. </p>
<p>5. Аккаунты Google Adwords и Adsense должны быть связаны между собой и грамотно привязаны к сайту: </p>
<ul>
<li>Инструкция по привязке аккаунтов AdWords доступна <a href="https://support.google.com/analytics/answer/1033961?hl=en" >здесь</a>. </li>
<li>А инструкция по привязке аккаунтов AdSense – <a href="https://support.google.com/adsense/answer/6084409?hl=en" >здесь</a>. </li>
</ul>
<p>6. Важно исключить исключить из отчетов данные во внутреннему трафику. Более подробную информацию по данному вопросу можно найти <a href="https://support.google.com/analytics/answer/1034840?hl=ru" >тут</a>. </p>
<p>7. Следует использовать параметр utm_medium для идентификации канала перехода. </p>
<ul>
<li>С этой целью имеет смысл применять <a href="https://support.google.com/analytics/answer/1033867?hl=en" >Компоновщик URL</a> (Google URL Builder). </li>
</ul>
<p>8. Желательно избегать переадресации страниц при помощи JavaScript и редиректов в мета-тегах. Это позволит снизить показатель отказов. </p>
<p>9. Важно грамотно настроить <a href="https://developers.google.com/analytics/devguides/collection/analyticsjs/events" >отслеживание событий</a> с помощью analytics.js. Это позволит владельцу ресурса точнее понимать, как пользователи взаимодействуют с контентом на сайте. </p>
<ul>
<li>Более подробная информация по настройке веб-отслеживания доступна <a href="https://developers.google.com/analytics/devguides/collection/analyticsjs/events" >в справочных ресурсах Google</a>. </li>
</ul>
<br /></body></html>