Головна » Статті » WEB-дизайн(html5,css,php...)

SEO-анализ сайта самостоятельно
SEO-анализ сайта самостоятельно

О важности поисковой оптимизации не говорит только ленивый. Мы не ленивые =), не раз писали, например, на что ориентироваться при самостоятельной работе, давали SEO-подсказки и рекомендации, не так давно публиковали список инструментов, помогающих продвигать сайт быстрее и удобнее.

Однако советы советами, а как быть с практической задачей – анализом собственного ресурса? Что проверять, какими именно сервисами и программами воспользоваться, на какие показатели смотреть и как эти данные трактовать?

Сегодня мы расскажем, как наши специалисты проводят SEO-аудит клиентских сайтов, чем пользуются и на что обращают внимание.

1. Общая информация

Присутствие в индексе

Google Webmaster и Яндекс.Вебмастер – ваши самые важные друзья, которые помогут получить разнообразную информацию по сайту. Если вдруг вы еще не зарегистрировались и не добавили ресурс в них, рекомендуем это сделать. Сообщать поисковикам необходимые сведения, производить проверку ряда параметров будет значительно удобнее.

Итак, информацию по индексации в Яндексе смотрим в разделе «Общая информация»:

В Google: выбираем «Индекс Google» → «Статус индексирования». Для отображения всей информации не забываем выбрать «Расширенные данные» и нажать кнопку «Обновление».

Многие скажут: я все это видел, что тут сложного или полезного? Да, видели, да, это найти несложно, но, как показывает практика, многие не обращают на это внимания. Представленная в данных разделах информация поможет узнать, все ли в порядке с индексацией, есть ли какие-либо ошибки, а значит, своевременно их исправить. Например, если ваш ресурс достаточно большой, а в индексе мало страниц, это первый звоночек о серьезных проблемах или санкциях. Или еще ситуация: сайт состоит примерно из 300–400 страниц, а Вебмастер показывает в 2 раза больше страниц в индексе – это критическая ошибка для продвижения, значит, в индексе слишком много дублей.

Наличие санкций и фильтров

Проверить, применялись ли поисковиками к сайту какие-либо меры и какие именно, можно в следующих разделах:

В новом Яндекс.Вебмастере: «Диагностика» → «Нарушения».

В Google: «Поисковый трафик» → «Меры принятые вручную».

Надеемся, никому не нужно объяснять, чем может грозить наличие предупреждающих сообщений в данных разделах?

2. Основные SEO-характеристики

Теги title, description, keywords

О том, что title является важным фактором в оценке релевантности сайта запросу, тоже сказано немало. Он должен быть и оптимизирован, и для пользователей привлекателен.

Про description тоже забывать не нужно, он участвует в формирование сниппета – краткого описания сайта в результатах выдачи. Поэтому не менее важно правильно составить и его. О том, как работать с тегами, читайте в нашей книге Тег title и мета-теги description и keywords: правила и секреты. Там всё подробно и в деталях.

Теперь не менее важный вопрос: как проверить заполнение тегов для всех страниц сайта?

Например, это можно сделать с помощью программы ScreamingFrog. Интерфейс интуитивно понятен: вводим адрес сайта, запускаем проверку, ждем результат и начинаем анализ.

Внимательно изучаем данные во вкладках Page Titles, Meta Description, Meta Keywords.Что нас будет интересовать:

  • для всех ли страниц заполнены теги title, description – они должны присутствовать на каждой странице и быть уникальными, то есть не дублироваться;
  • есть ли keywords – здесь все наоборот, его быть не должно (пояснение нашей точки зрения тут);
  • используются ли ключевые слова, релевантны ли они странице;
  • какова длина тегов, не слишком ли длинные или короткие названия и описания страниц;
  • нет ли спецсимволов и т.д.

Проверяйте, соответствуют ли найденные теги основным правилам. Если нет – исправляйте.

Также посмотрите, как Яндекс и Google видят description. Раздел «Диагностика» → «Диагностика сайта» в Яндексе. Список страниц, для которых обнаружены проблемы, будет доступен по ссылке «Ознакомьтесь».

И в Google: «Вид в поиске» → «Оптимизация HTML».

Теги заголовков H1, H2

Правильное оформление заголовков не только поможет посетителю быстрее найти нужную информацию и сориентироваться на странице, но и позволит увеличить вес ключевых слов.

Кроме того, тег <h1> играет важную роль при формировании быстрых ссылок в выдаче Яндекса.

Проверить, определены ли для сайта быстрые ссылки, а также управлять ими можно в новом Яндекс.Вебмастере:

Если для вашего сайта они определены, вы должны понимать, зачем и как это сделано. О формировании быстрых ссылок мы писали тут.

Возвращаемся к программе ScreamingFrog. Теперь проверяем данные во вкладках H1 и H2:

При проверке помните:

  • H1 желательно составить уникальными для всех страниц;
  • H1 должен быть на странице только один, в нашем примере их два – это критическая ошибка;
  • теги заголовков должны включать ключевые слова из семантического ядра.

Поэтому если у вас нашелся ряд страниц, для которых H1 или H2 не прописаны, теги слишком короткие и неинформативные, то заполните их корректно.

Развернутые сведения о том, как составлять теги H1 и H2, есть в нашей статье.

Атрибут Alt для картинок

Посмотрите, прописан ли атрибут alt тега <img> ко всем картинкам на сайте. Удобнее всего это сделать в браузере Mozilla Firefox. Кликните по изображению правой кнопкой мыши, выберите «Информация об изображении»:

Нас интересует информация в колонке «Альтернативный текст»:

Содержание атрибута учитывается поисковыми системами и влияет на рейтинг вашего ресурса. Проверьте, чтобы alt был прописан для всех картинок, соответствовал изображению и по возможности содержал подходящие ключевые слова.

Анализ текстов на сайте

Мы часто пишем, что качественные тексты – это основа всего продвижения. Проанализировать ваш контент помогут сервисы text.ru – проверка на уникальность, pr-cy – на переспам, «Главред»– на наличие клише, штампов и различного смыслового мусора.

Уникальность

Для проверки на уникальность вам нужно просто вставить текст в соответствующее окно на сайте и нажать кнопку «Проверить».

Буквально несколько минут, и вы узнаете уникальность вашего текста, она должна быть не менее 90%.

Не забудьте только в списках доменов, на которых нашлись совпадения, исключить свой сайт. Если текст есть только на вашем ресурсе – отлично, если нет и совпадений достаточно много – надо дорабатывать или полностью переписывать.

Чтобы защитить свой контент от копирования, не забывайте закреплять на него права в Яндекс.Вебмастере. Подробнее о проверке на уникальность смотрите тут.

Оптимизация

Следующий шаг – с помощью pr-cy проверяем как обстоят дела у этого же текста с оптимизацией:

В первую очередь смотрим на тошноту. Она должна быть в рамках 5-8%. Если меньше – текст оптимизирован мало, продвижения этого недостаточно, если выше – то переоптимизирован, что может повлечь за собой санкции. Подробнее про тошноту читайте по ссылке.

Далее проверяем плотность ключевых слов. Обращаем внимание на раздел «Контент»:

Смотрите, чтобы вес основных ключей был в пределах 2-5 (слова с пометками Title, Headers). Если меньше, то имеет смысл текст оптимизировать. Если будет больше, то это уже переспам.

Проверка с точки зрения пользы для читающего

Узнать, насколько текст понятен и полезен посетителям сайта, поможет «Главред». Все просто – открываем сервис, загружаем текст в окно и смотрим оценку:

Нормой считается 6-7 баллов. Если меньше, текст вряд ли будет интересен пользователям, его в лучшем случае просто пробегут глазами.

Все проблемы, выявленные в тексте, «Главред» выделяет – так что вы без труда получите пояснение, что именно написано не так.

Советуем при проверке на уникальность, тошноту и пользу для читателя брать несколько текстов. В первую очередь обязательно анализируйте контент на главной – ведь это лицо вашего сайта.

3. Технические характеристики

Файл Robots.txt

Проверить, присутствует ли на вашем сайте robots.txt, достаточно просто. Попробуйте перейти по ссылке http://site.ru/robots.txt и увидите подобную картину:

Также проверить robots.txt можно в Вебмастере:

На что обратить внимание при проверке:

  • желательно, чтобы были отдельно заполнены User-Agent для Yandex и Google;
  • указана директива Host;
  • указан адрес карты сайта;
  • закрыты от индексации страницы авторизации, восстановления пароля, технические страницы и т.д.

Подробнее об использовании robots.txt рекомендуем прочитать в нашей статье.

Наличие ошибки «Googlebot не может получить доступ к файлам CSS и JS на сайте»

Летом 2015 года в Google Webmaster многие владельцы сайтов стали получать предупреждение о наличии такой ошибки. Google сообщал, что если не открыть доступ к ресурсам, то сайт просядет в выдаче.

Проверить наличие данной ошибки можно в Google Webmaster, раздел «Сканирование» → «Посмотреть как Googlebot».

Следует найти и исправить все ошибки на сайте, чтобы ваш сайт не потерял позиции в выдаче.

Максимально наглядно мы разбирали данный вопрос в этой статье.

Скорость загрузки страниц

Согласитесь, вряд ли кому-то нравится, когда сайт слишком долго открывается. Кроме того, этот фактор учитывается и поисковиками при ранжировании.

Проверить скорость загрузки страниц можно с помощью Google PageSpeed Insights. Все элементарно просто: вводите адрес любой страницы и нажимаете кнопку «Анализировать».

После чего сервис даст оценку скорости как для компьютера, так и для мобильной версии, а также покажет выявленные ошибки и рекомендации по их устранению.

Страница получает от 0 до 100 баллов. Чем больше будет показатель, тем лучше. Если страница получила более 85 баллов, все отлично. Если в диапазоне 50-80 баллов, то нужно поработать над скоростью загрузки, однако ошибка не критична. Если же скорость загрузки близка к 0, то очень важно ее повысить. Слишком медленные сайты хуже ранжируются в результатах поиска.

Рекомендации по устранению ошибок вы найдете в разделах «Исправить обязательно» и «Исправить по возможности».

Оптимизация под мобильные устройства

Число пользователей, совершающих покупки через мобильный Интернет, постоянно растет. Поэтому чтобы не потерять приличную долю трафика, важно оптимизировать сайт и под мобильный поиск.

С 21 апреля 2015 года Google и со 2 февраля 2016 года Яндекс при индексации отдают большее предпочтение сайтам, оптимизированным под смартфоны.

Проверить, адаптирован ли ваш сайт к мобильным, можно, например, с помощью Google Developers. Вводите адрес своего ресурса, нажимаете «Анализировать» и получаете результат. Если сайт не оптимизирован под мобильные, сервис укажет, в чем именно заключается проблема.

Проверить адаптивность можно в новом Яндекс.Вебмастере: «Инструменты» → «Проверка мобильных страниц».

Подробнее о том, почему оптимизация под мобильные – 100% musthave, мы писали тут.

Валидность HTML-кода

Некорректный код страниц вашего сайта может помешать продвижению: ошибки могут негативно сказываться на сканировании микроразметки, на отображении сайта на мобильных устройствах и т.д.

Проверку валидности кода можно осуществлять с помощью сервиса MarkupValidationService. Вводите адрес страницы в поле Checkby, нажимаете кнопку Check, получаете список всех найденных ошибок и предупреждений.

Конечно, далеко не все ошибки являются критичными, но лучше показать полученный список вашим разработчикам – пусть исправят все, что возможно.

Битые ссылки

Наличие битых ссылок негативно сказывается на продвижении. Поисковые системы могут наложить санкции за большое число «мертвых ссылок».

Для поиска битых ссылок подойдет, например, программа Xenu. Она распространяется в Интернете бесплатно.

В программе выбираем в меню File-Check URL, вводим адрес и нажимаем ОК. Через некоторое время Xenu проверит ваш сайт и выдаст результат. Нас интересуют ссылки, выделенные красным цветом и имеющие статус Notfound.

После того, как вы нашли битые ссылки на сайте, нужно выяснить причины их появления, затем эти причины устранить.

Дублированный контент

Наличие дублей негативно влияет на продвижение, ведет к потере естественных ссылок, может подменить истинно-релевантные страницы, способствует неправильному распределению внутреннего ссылочного веса. Чтобы узнать, если ли у вашего сайта дублированный контент или нет, можно воспользоваться программой NetpeakSpider.

Указываем адрес сайта, запускаем проверку и ждем результатов. После окончания проверки нажимаем кнопку «Найти дубликаты» и смотрим, что программа нашла. Нас интересует раздел «Дубликаты» → «По title»: смотрим, для каких страниц теги полностью совпадают, переходим на страницы и проверяем контент – полностью ли он дублируется или нет, а также смотрим в таблице, заполнен ли тег <link rel="canonical"> – столбец LinkCanonical. Этот тег указывает поисковикам, какая страница у нас основная и предназначается для индексации.

Если вы нашли одинаковые страницы и для них тег <link rel="canonical"> не заполнен – это дубли. Их надо исправлять.

Категорія: WEB-дизайн(html5,css,php...) | Додав: zverius (06.10.2016)
Переглядів: 1245 | Рейтинг: 0.0/0
Всього коментарів: 0
avatar