Потеря трафика после реорганизации сайта. Что проверить?

Дизайнеры и программисты хороши в разработке и создании сайтов, но когда речь заходит о SEO, могут возникнуть проблемы. Реорганизация сайта является одним из наиболее показательных случаев в этом вопросе. Так что если сайт, после реорганизации, начал терять свой органический трафик, стоит обратить внимание на четыре основные вещи… об этом и поговорим.

Потеря трафика после реорганизации сайта. Что проверить?

1. Обновление алгоритма. В первую очередь Вам необходимо проверить, не является ли потеря трафика следствием обновления поискового алгоритма. Для этого можно сравнить изменение уровня получаемого трафика из разных источников (поисковых систем).

изменения уровня трафика из разных источников (поисковых систем) в google analytics

Также вы можете использовать историю изменения алгоритмов Google на сайте Moz, проследовав по этой ссылке.

2. 301 редирект. В том случае, если старые страницы сайта теперь доступны по новому адресу, необходимо создать соответствующее перенаправление. Сделать это нужно, используя 301 редирек, который сообщит поисковым роботам об изменении адреса страниц.

Подробней о том, как сделать 301 редирект, вы можете прочитать, например, в одноимённой статье Сергея Кокшарова, проследовав по этой ссылке.

Для того чтобы убедиться в правильности работы перенаправлений, можно проследить уровень изменения органического трафика хотя бы для самых популярных ранее страниц входа. Вот как это можно сделать в Google Analytics:

изменение уровня органического трафика для отдельных страниц по данным google analytics

В том случае, если обнаружен спад, но перенаправление работает, убедитесь в том, что Вы используете именно 301 редирект. Проверить возвращаемые сервером HTTP-заголовки можно используя, например, этот сервис: web-sniffer.net

Также Вы можете использовать отчёт ошибок сканирования в инструментах для веб-мастеров. Убедитесь, что проблемная страница не выдаёт 404 ошибку или что-то в этом роде. Вот как это выглядит в сервисе Google:

отчет ошибок сканирования в Google инструментах для веб-мастеров

3. Директивы в robots.txt. Файл robots.txt служит источником инструкций (рекомендаций) для поисковых роботов. Поэтому будет не лишним просмотреть его содержание на предмет возможных запретов индексации.

Сделать это Вы можно и в своём браузере, а можете, используя Google инструмент для веб-мастеров:

анализ robots.txt в Google инструментах для веб-мастеров

Или анализатор robots.txt в Яндекс, проследовав по этой ссылке.

анализатор robots.txt от яндекс

4. Проверка веб-страниц сайта. Помимо запрета доступа поискового робота к страницам сайта в robots.txt, на некоторых из них может быть запрет, реализованных через метатех Robots. Поэтому если трафик для какой-то страницы упал, проверьте наличие в коде следующего метатега:

<meta name="Robots" content="noindex, nofollow">

Обычно он находится в секции HEAD.

В целом не столь уж и важно, что стало причиной потери трафика, но если проблема найдена, постарайтесь решить её как можно быстрее. Дело в том, что если поисковый робот не может найти и/или получить доступ к той или иной странице сайта, она, скорей всего, будет удалена из поискового индекса. На этом у меня всё. Спасибо за внимание. Удачи!

Короткая ссылка: http://goo.gl/NBQWns

Кай
Кай комментирует...

А ещё, не плохо бы проверить sitemap, ато последнее время плагин google sitemap штормит и могу возникнуть проблемы...:-)))

Дмитрий
Дмитрий комментирует...

С версткой могут быть косяки..
Забудешь закрыть какой ни будь тег или сотрешь не то))

Константин Кирилюк
Константин Кирилюк комментирует...

2Кай, sitemap служит лишь рекомендацией для google и на индексацию уже проиндексированного не оказывает влияние.

2Дмитрий ну, для того чтобы верстка имеля воздействие на потерю трафика нужно совершить заметную ошибку имхо... разве что речь идёт о noinde теге/комментарии ;-)