Фундаментом любого сайта является его техническая сторона. Помимо широкого и приятного функционала, красивой обертки и юзабилити для продвижения очень важна SEO оптимизация, которая позволит роботам поисковых систем быстро и правильно индексировать содержимое ресурса. Давайте определим основные моменты, которые следует учесть, либо можете поручить оптимизацию сайта нам.
Начиная работу над продвижением своего ресурса, нужно зарегистрировать его в кабинетах Яндекс.Вебмастера и Google Search Console. Это самый лучший и первый сигнал для поисковых систем о том, что сайт существует, и вскоре роботы начнут посещать сайт.
Однако, недостаточно просто добавить домен, кабинеты необходимо правильно настроить. Например, в Яндекс.Вебмастере не будет лишним:
А в Google Search Console нужно:
Гид по Google Search Console находится здесь.
Помимо прочего, вебмастера располагают массой полезных инструментов:
Перед началом базовой работы с сайтом в рамках SEO-продвижения мы всегда в первую очередь проверяем наличие Вебмастеров у сайта чтобы на старте можно было определить наличие болячек.
Для получения более полной и подробной информации о посещаемости и поведении пользователей на вашем сайте зарегистрируйте и установите счетчики посещаемости. Счетчик – это прекрасный инструмент, который поможет разобраться, как и в каком направлении двигаться, работая над популярностью ресурса.
Текстовый файл robots.txt должен присутствовать у каждого сайта и быть доступен по адресу example.ru/robots.txt. Это первый файл, к которому обращаются роботы при посещении сайта и в котором хранятся инструкции для них.
Простыми словами, robots.txt – свод рекомендаций, которые указывают, что можно индексировать, а что нельзя (но не факт, что роботы будут следовать им строго).
В зависимости от того, на какой системе управления работает ваш сайт, формируются эти самые правила. Давайте кратко определим, что должно быть в данном файле:
Более подробно о настройке robots.txt можно прочитать в справке Яндекса и в справке Google.
Карта сайта – один основных способов улучшения навигации по сайту как для поисковых роботов, так и для пользователей.
Для роботов карта сайта генерируется в формате xml и должна содержать все ссылки, которые будут индексироваться и участвовать в выдаче.
Для многих популярных CMS существуют специальные плагины, позволяющие создавать и настраивать карту (например Google XML Sitemaps для WordPress или XMap для Joomla). Если сформировать карту при помощи дополнений нет возможности, то здесь помогут различные онлайн-генераторы, например MySitemapGenerator, или же настольные приложения, например ComparseR, Sitemap Generator. В карту сайта не должны попасть служебные страницы (страницы авторизации/регистрации, фильтры, поиск).
Не будет лишним добавление карты сайта в формате html (обычная страница со списком разделов и ссылок). Она облегчит навигацию как для посетителей, так и для роботов. Не стоит делать её слишком объемной, например, для интернет-магазина достаточно будет сделать иерархию из основных разделов и категорий.
Битая ссылка – это ссылка, которая ведет на несуществующую страницу (документ, изображение, другой сайт).
Большое количество таких ссылок отрицательно сказывается на отношении пользователей к вашему ресурсу, ведь мало кому понравится видеть сообщения об ошибке вместо интересующего материала.
Поисковые системы тоже способны сделать некие отрицательные выводы о ресурсе с чрезмерным количеством таких ссылок, например, что контент не актуальный, сайт не обновляется (за ним попросту не следят) и т.д.
Не ленитесь регулярно проверять свой ресурс на наличие битых ссылок. Воспользуйтесь довольно удобным сервисом для поиска.
Подробнее о битых ссылках можно прочитать здесь.
В случае, если битые ссылки все же нашлись, то нужно настроить 301 редирект на существующую страницу.
Дубли страниц – это доступность одного и того же материала по нескольким адресам.
Наличие дублированного контента приводит к следующим проблемам:
Пожалуй, это одна из основных трудностей технической оптимизации сайта. Если нет возможности устранить дубли технически, нужно воспользоваться канонической ссылкой с атрибутом rel=canonical тега link.
Предположим, что материал доступен по двум адресам:
www.site.ru/page
www.site.ru/page111
Предпочтительным будет первый вариант, а канонический тег будет выглядеть так:
‹link rel="canonical" href="www.site.ru/page" /›
Он должен присутствовать в коде обеих страниц между тегами ‹head› и ‹/head›.
Если и это не удается сделать, имеет смысл закрыть дубли в robots.txt через noindex или настроить 301 редирект. Подробнее читаем тут.
Семантический URL, или человеко-понятный урл (ЧПУ), или SEO-Friendly URL – все это названия URL-пути, состоящего из понятных и наиболее предпочтительных слов как для пользователя, так и для ПС.
Правильно настроенные ЧПУ на сайте позволяют не только определять содержимое страницы (догадаться по названию, что находится в документе), но и улучшают индексацию за счет использования ключевых слов.
Перед тем, как начать формировать адреса, придется определиться, под какую из поисковых систем вы будете подстраиваться. Для Яндекс рекомендуем транслитерацию, для Google – прямой перевод. Например, есть страница «О компании»:
Несколько советов по настройке ЧПУ:
Почти у каждого домена есть синонимы, по которым доступен ресурс. Это может быть самая распространенная пара example.ru и www.example.ru, или же прикрепленный к основной версии домен на кириллице, домен третьего уровня и т.д. А если установлен SSL сертификат, то и вовсе количество зеркал может возрастать до четырех:
Если все эти версии будут доступны, то рано или поздно поисковики их склеят, признав основным зеркалом один из вариантов, поэтому очень важно позаботиться об этом заранее:
Давно не является тайной тот факт, что наличие SSL сертификата благоприятно влияет на отношение не только поисковых систем к сайту, но и обычных посетителей. Ведь даже самый простой (бесплатный) сертификат дает гарантию подлинности домена и обеспечивает безопасность передаваемой информации (шифрует данные).
Не поленитесь подключить такой сертификат для вашего сайта.
На данную тему уже написана статья, которая даст ответы на все вопросы и поможет корректно перейти на httpS.
Семантическая разметка (микроразметка) данных Schema.org – это использование специальных html атрибутов и их свойств для отдельных частей контента, которые позволяют улучшить внешний вид сниппетов в поисковой выдаче.
Правильная верстка с такой разметкой позволит преобразить в поисковой выдаче, например:
Товары
Статьи и навигационную цепочку
Рецепты
Семантика также позволит вывести контакты, отзывы об организации и многое другое.
Более подробную информацию о том, для чего нужна микроразметка, а также как её правильно сделать – можно найти здесь.
Рекомендуем настроить микроразметку для:
Когда пользователь открывает страницу в браузере (или робот начинает ее сканировать), сервер, на котором находится сайт, отдает в ответ на этот запрос код статуса HTTP, то есть предоставляет информацию о вашем сайте и запрашиваемой странице.
Например,
200 – со страницей все в порядке
404 – несуществующая страница (советы по оформлению страницы 404)
503 – сервер временно недоступен
Бывает, код статуса отдается неверный. Например, страница рабочая, а статус-код 404, или наоборот, несуществующие страницы отдают код 200. Это нужно обязательно отследить и провести корректную настройку статус-кодов в файле .htaccess.
Особенно важно настроить 404 ошибку. Если страница существует, а сервер при ее запросе сообщает о 404 ошибке, страница не будет проиндексирована поисковиками.
Проверить коды статусов можно с помощью соответствующего инструмента в Яндекс.Вебмастере или приложения «Firebug» для браузера Mozilla Firefox.
Скорость работы ресурса, загрузки страниц, выполнения скриптов и т.д. – один из ключевых показателей технической оптимизации. Вряд ли пользователю будет приятно дожидаться долгого ответа сервера, отрисовки страницы, или отправки данных через какую-нибудь форму – он просто уйдет, и, как правило, не вернется.
На этот момент активно обращают внимание и поисковики. Ведь то, что не нравится пользователю – не должно нравиться и ПС.
Чтобы оценить и выявить факторы, которые тормозят работу ресурса, можно воспользоваться инструментом Google PageSpeed Insights. Результатом будут два относительных показателя с рекомендациями необходимых работ для поднятия скорости:
Стоит учесть, что выполнение всех рекомендаций добавит еще одну положительную оценку, которая будет учтена при ранжировании, однако, не факт, что скорость сайта станет идеально высокой.
Уже давно основным источником трафика являются мобильные устройства. Поэтому очень рекомендуется оптимизировать сайт под них. Не просто уменьшить иконки и подогнать текст под разрешение устройства, но и порой полностью адаптировать сайт под смартфоны и планшеты. Иногда отображение сайта очень отличается с десктопов и мобильных.
На этот момент обращают внимание не только поисковики, которые отдают предпочтение сайтам с хорошим адаптивом, но и пользователи. Не так много юзеров будут искать нужную кнопку на своем пятидюймовом устройстве, им проще уйти к конкуренту, у которого уже все сделано для людей.
Проверить корректность адаптации для мобильных можно в Вебмастере Яндекса.
Все это только основные моменты, которые следует учесть для технической оптимизации сайта. Помните, грамотное SEO, а в частности техническая оптимизация – это результат большого объема работ, которые в сумме дают хороший эффект, и довольно часто пренебрежение хотя бы одним из параметров может все труды «свести на нет». Если хотите проверить, всё ли у вас в порядке с технической оптимизацией сайта, то SEO-аудит вам в помощь. Если хотите, чтобы не только проверили, но и правильно всё настроили, то вам необходимо комплексное SEO-продвижение «под ключ». Удачи!