16+
Аудит сайта за 5 минут

Объем: 24 бумажных стр.

Формат: epub, fb2, pdfRead, mobi

Подробнее
О книгеотзывыОглавлениеУ этой книги нет оглавленияЧитать фрагмент

Содержание:


Введение

1. Тип сайта.

2. Конкуренты.

3. Файл Robots. txt, мета — теги, sitemap.

4. Технические характеристики:

4.1. Код ответа сервера

4.2. Протокол соединения.

4.3. Скорость загрузки.

4.4. Хостинг.

4.5. Адаптация под мобильный поиск

4.6. ЧПУ

4.7. Вирусы

4.8. Доступность сайта

4.9. Система управления.

5. Общие характеристики:

5.1. Санкции поиска.

5.2. Индексация страниц

• дубли;

• код 404.

5.3. Контент

• мета — теги.

5.4. Юзабилити

• уровень вложенности;

• поиск;

• память;

• путь;

• действие;

• полезность;

• доверие к сайту.

5.5. Внешние ссылки.

5.6. Социальные сигналы.

Заключение


Введение


Что такое аудит сайта и с чего его начать? Под аудитом понимается комплексная проверка интернет — ресурса. Под последним словом мы подразумеваем сайт.

Сайт — это механизм, который должен работать без сбоев. Очень часто будущие владельцы сайтов не осознают до конца степень ответственности за этот механизм. Они создают сайт, платят за него деньги, надеются на прибыль и… В итоге разочарование. Почему так происходит? Сайт создать — это часть дела. Сегодня — не самая большая. После создания сайта, его надо продвинуть в поиске или запустить каналы рекламы, приносящие прибыл. Когда интернет — ресурс займет верхнюю выдачу, можно смело «говорить» о конверсии.

Комплекс работ по продвижению сайта в условиях органической выдачи получил название SEO. Аудит в SEO, да и в рекламе занимает не последнее место.


1. Тип сайта


Перед проверкой надо сразу определить тип сайта. Типы разделяют по способу разработки, количеству страниц, назначению.

А именно:

• одностраничный сайт или Landing Page;

корпоративный сайт;

интернет — магазин;

портал.


Могут создаваться:

на шаблоне;

с нуля;

на конструкторе.


Landing Page

Одностраничный сайт для рекламы одного вида товара или услуги. Не рекомендую рекламировать через такой тип сайта несколько видов товаров и услуг. Только один товар или услуга!

SEO — продвижение для Landing Page по классике считается закрыто. Но это по классике. На практике можно продвинуть и в органической выдаче. Каким образом?

Первый секрет кроется в подборе доменного имени. Подбираем домен с ключевым словом. Ключевое слово будет индексироваться роботами поиска.

Второй секрет в расположении ключевого слова на уровне первого экрана.

Третий секрет — грамотная интеграция УТП с ключевыми словами.

Четвертый — создание «продающего» видео и размещение его на сайте.

Таким образом в индекс органического поиска попадут приблизительно 5 — 7 запросов минимум.


Корпоративный сайт

Полноценный многостраничный сайт компании. Цель рассказать о компании или познакомить пользователей интернета с продуктом или услугой. Каждая интернет — страница — это отельный ресурс с информацией.


Интернет — магазин

Главный и единственный признак интернет — магазина — это наличие на сайте товарной корзины и каталога.


Интернет — портал

Сервис со множеством страниц, большим числом разделов, широким функционалом. Владельцами порталов являются крупные компании.

Как нам поможет эта информации при аудите?

Итак, тип сайта определили. Если у нас одностраничный сайт — полноценная органическая выдача для него закрыта. Мы сможем его найти только по минимальному количеству запросов. При этом все рекламные кампании для одностраничного сайта открыты. Все остальные типы сайтов прекрасно индексируются.


2. Конкуренты


Зачем нам знать конкурентов? Надо! С их помощью можно представить картину продвижения сайта в целом в условиях органической выдачи. Нас у конкурентов интересует все, но особое внимание на:

1) семантическое ядро;

2) позиции;

3) юзабилити.

Важно! Нам интересны конкуренты из ТОП 5 органической выдачи по коммерческим запросам. Других не рассматриваем.

Для анализа конкурентов используем программы Promopult, Arsenkin, Megaindex… Полный перечень программ есть в методическом материале к книге.

Совет: «гонка за лидером» — прекрасный способ достичь быстрее вершин органического поиска.


3. Файл Robots. txt, мета — теги, schema.org, sitemap


Прежде чем приступить к аудиту, надо определиться, открыт ли сайт для индекса. Зачем нам делать «мартышкин» труд, если сайт не «видят» поисковые роботы. С этим нам поможет справиться файл robots. txt.

В строку поиска вводим следующее сокращение: site.ru/ robots. txt. Где site.ru домен сайта.

User-agent: *

Disallow: / — сайт закрыт от поиска. Смысла проводить аудит нет!

User-agent: Yandex

Disallow: / — сайт закрыт от поиска Яндекс. Аудит в Яндекс не проводим!

User-agent: Googlebot

Disallow: / — сайт закрыт от поиска Гугл. Аудит в Гугл не проводим!

User-Agent: *

Disallow: *.jpg

Disallow: *.png

Disallow: *.gif — сайт открыт для поиска! Анализируем сайт!

В последнем случае стоит обратить внимание на интернет — страницы, закрытые от поиска.

Закрыть от поиска надо обязательно:

1) технические страницы (дубли);

2) неканонические.

Оптимизатор может закрыть любую интернет — страницу от поиска по собственному желанию!

Анализируем файл robots. txt. Обращаем внимание на закрытые от индекса интернет — страницы.

Файл robots. txt закрывает от индекса сайт в целом. Мета — тег может закрыть от индекса интернет — страницу по выбору.

<meta name=«robots» content=«noindex»/> — закрывает контент на странице. Весь контент на странице с этим мета — тегом не индексируется!

<meta name=«robots» content=«nofollow»/> — закрывает индексацию ссылок на странице. Все ссылки не индексируются!

<meta name=«robots» content=«none»/> — не индексируется контент и ссылки.

Нужный код вставляется между тегами <head> </head>

Оптимизаторы — практики часто используют мета — теги для управления индексацией сайта. Это быстро и более надежно. Почему? В практике автора были случаи, когда поисковые роботы Яндекса индексировали закрытую в файле robots. txt интернет — страницу. Получается, что robots. txt — это рекомендательный файл? Да, именно так! А мета — теги роботы поиска рассматривают в виде указательных директив.

Итак, при аудите проверяем не только файл robots. txt, но открытость для индекса страниц сайта по мета — тегам. Это можно сделать с помощью программ (ниже перечень) или выборочно по каждой странице: переходим на необходимую страницу, подводим курсор в правый верхний угол страницы (именно интернет — страницы), нажимаем правой кнопкой мыши, в панели ссылок выбираем «просмотреть код страницы», на уровне первого экрана анализируем наличие запрещающих мета — тегов.

Бесплатный фрагмент закончился.

Купите книгу, чтобы продолжить чтение.