Порядок действий для продвижения сайта

Привет, друзья. В этой статье хочу описать какие базовые действия я использую для продвижения сайта. Представим, что нам пришел сайт и мы хотим его продвинуть, как же нам действовать? С чего начать?

Представим что у нас новый проект:

  1. Необходимо проверить наличие кода Google analytics и Yandex metrika;
  2. Иметь доступ или добавить сайт в вебмастера Google и Yandex;
  3. Узнать регион и тематику продвижения сайта;
  4. Собрать семантическое ядро;
  5. Проверить на склейку с www и без, на склейку site.com и site.comindex.phphtml, htm;
  6. Проверить на наличие дублей;
  7. Проверить индексацию сайта, если сайт не проиндексирован, то на всякий случай проверить запреты на индексацию сайта файл robots.txt, настройки самого движка в коде, в header ;
  8. Проверить title, description на переспам и наличие ключей;
  9. Проверить количество тегов h1 на странице;
  10. Проверить текст на сайте. Проанализировать из каких ключей он состоит, его уникальность.

Теперь рассмотрим как я выполняю эти пункты.

Для выполнения 1,2,3 пункта нам нужна информация от владельца сайта.

4. Для сбора сем. ядра понадобится словоеб Внимание, ссылка на скачивание программы. Программа без вирусов, с их оф. сайта или же инструменты Google или Yandex. Есть другие платные и бесплатные инструменты, к примеру как key collector, но вышеперечисленных мне для работы достаточно.

5. Проверить можно руками, введя допустим www.site.com и site.com. Если все верно, то будет какой-то 1 адрес или с www или без, если не верно, то будут доступны оба адреса. Склейка настраивается в файле htaccess. Более подробно неплохо описано в статье деваки о склейки зеркал.

6. Неплохо описано также в статье деваки про поиск дублей. От себя добавлю, что если вы видите что урл меняется, а текстовое содержимое не меняется, то это дублирующийся контент.

7. robots.txt можно увидеть по адресу site.comrobots.txt, если ничего не найдено, то файл попросту отсутствует. Если найден, то важно помнить что все, что находится в “Disallow:”, то это закрыто от индексации от поисковых систем. Инструкция по настройке robots.txt Google и инструкция по настройке robots.txt в Yandex.

Для 8 и 9 пункта отлично подойдет программа netpeak spider – это аналог xenu, доделанный и улучшенный.

10. Для анализа текста использую онлайн сервис seozor, для проверки на уникальность использую программу advego plagiatus.

Собственно, это основные действия по подготовительным работам в плане СЕО. Действия перечислены без учета оценки входящих ссылок.

Жду ваших комментариев…

Оставьте Ваш комментарий

Ваш e-mail не будет опубликован. Обязательные поля помечены *