Анализ контента: сбор статистики

Чтобы проанализировать весь контент, имеющийся на вашем сайте, вам потребуется пройти через два этапа: сбор данных и их анализ. Сегодня мы остановимся лишь на первом (так как объем информации большой, было решено подавать его порционно). Расскажем и наглядно покажем, как в автоматизированном режиме (с помощью простой таблицы Excel и одного потрясающего плагина) собрать все необходимые метрики, чтобы потом обработать их и понять, что именно хочет ваша целевая аудитория и как создавать контент, который будет неизменно пользоваться у нее популярностью.

1. Сбор ссылок

Первое, что нам необходимо сделать, – это собрать все ссылки на контент вашего блога и поместить их в таблицу Excel. Для этого воспользуемся программой Screaming Frog. Программа платная, а в бесплатной версии есть ограничения по нужным нам функциям. Поэтому, скрипя сердцем и ругая себя за бесстыдное поведение, заходим на торрентсы и скачиваем крякнутую версию. После этого запускаем приложение и вводим keygen. Все, программа активирована на целый год вперед. Выходим из нее и снова запускаем. Далее делаем так, как показано на следующей гифке: вводим раздел, в котором находятся все ваши материалы, убираем галочки, ставим фильтр по HTML и нажимаем Start.

Сбор ссылок с помощью Screaming Frog Seo Spider
Сбор ссылок с помощью Screaming Frog Seo Spider

После того как программа просканирует ваш сайт, жмем Export и сохраняем отчет в формате Excel Workbook (.xlsx). Должно получиться следующее:

Отчет, который выдает Screaming Frog Seo Spider
Отчет, который выдает Screaming Frog Seo Spider

2. Создание таблицы

Анализировать контент мы будем по 4 параметрам:

  • Категория поста vs расшаривания в соцсетях / бэклинки / комментарии
  • День публикации vs расшаривания в соцсетях / бэклинки / комментарии
  • Длина заголовка vs расшаривания в соцсетях / бэклинки / комментарии
  • Длина статьи vs расшаривания в соцсетях / бэклинки / комментарии

Поэтому большинство метрик в отчете нам не нужны. Удаляем все, кроме: Address (ссылка на статью), Title 1 (заголовок), Title 1 Length (количество знаков в заголовке) и Size (количество знаков в статье). И добавляем новые: Категория, Дата, Комментарии, Facebook, Twitter, Google+, Вконтакте, Бэклинки. В итоге должно получиться следующее:

Таблица со всеми нужными метриками
Таблица со всеми нужными метриками

3. Установка плагина Seo Tools

Чтобы заполнить пустые разделы, воспользуемся плагином Seo Tools. Для его нормального функционирования потребуется последняя версия Microsoft .NET Framework. Чтобы скачать ее, необходимо перейти по ссылке.

Страница с последней версией Microsoft .NET Framework
Страница с последней версией Microsoft .NET Framework

Далее необходимо определить, какая версия MS Office у вас стоит: 32- или 64-битная. Для этого заходим в MS Word, Файл – Учетная запись – О программе Word.

Определяем версию MS Office
Определяем версию MS Office

После того как вы узнали, какая версия у вашего MS Office, переходим по ссылке и нажимаем Download the latest version. Для получения ссылки на скачивание плагина Seo Tools, необходимо ввести email. Вводим и нажимаем Subscribe to list. Подтверждаем подписку и тут же попадаем на такую страницу:

Сообщение, которое приходит после подписки на блог автора Seo Tools
Сообщение, которое приходит после подписки на блог автора Seo Tools

Скачиваем плагин нужной версии. Распаковываем его. Запускаем нашу таблицу и закидываем в пустое место файл под названием Seo Tools:

Установка плагина Seo Tools
Установка плагина Seo Tools

Все, плагин установлен. Если вы все сделали правильно, в меню, с самого правого края, должен появиться раздел Seo Tools. Осталось только собрать нужные метрики.

4. Дата

Начнем с самого простого, с даты. Переходим в раздел Seo Tools – Scraping – XPathOnURL и вводим в первую строку URL статьи.

Seo Tools – Scraping – XPathOnURL

Чтобы заполнить вторую строку, необходимо перейти в саму статью. Навести курсор на дату публикации. Сделать правый щелчок – Просмотр кода элемента. Еще раз правый щелчок – Copy Xpath.

Как работает функция XPathOnURL в плагине Seo Tools

После этого возвращаемся в Excel и вставляем скопированный код во вторую строку и все двойные кавычки заменяем на одинарные (апострофы). Запомните: это нужно делать всегда, иначе функция не сработает. В итоге должно получиться следующее:

Быстрый сбор данных с помощью Seo Tools

5. Категория

То же самое проделываем и с категорией. Поскольку на нашем сайте немного необычно реализована функция категорий, разберем на примере другого сайта. Делаем абсолютно все то же самое.

Сбор информации о категории страницы с помощью плагина Seo Tools

Как я уже сказала, на нашем сайте этот трюк проделать не удалось, потому что выбранная категория не прописывается в исходном коде. Но выход мы все-таки нашли. В наших статьях мы используем микроразметку Schema.org типа Article. И в ней мы каждый раз вручную прописываем категорию статьи. Поэтому эти данные нам все-таки удалось вытащить.

Заходим в код. Находим там микроразметку. Строку с категорией. Обратите внимание, у рубрики есть атрибут content (он нам понадобится позже).

Код одной из наших статей
Код одной из наших статей

Копируем Xpath и вставляем во вторую строку окошка. В третьей строке прописываем атрибут content.

Вытаскиваем данные из микроразметки

Почему в случае с датой мы не прописывали атрибут, а здесь прописали? Честно, не могу объяснить это грамотно, т.к. я не программист, в всего лишь маркетолог. Поэтому скажу просто: если функция не срабатывает, значит нужно попробовать прописать атрибут. Метод научного тыка всегда актуален :)

6. Комментарии

Количество комментариев добывается по такому же принципу и, по идее, не должно вызвать у вас трудностей. Однако здесь есть одно «но». Если вы используете Disqus или какой-либо другой сервис, который динамически меняет данные, эта функция не сработает. Как определить, входите вы в эту категорию или нет? Для этого зайдите в исходный код страницы (ctrl + u) и попробуйте поискать там фразу, которую вы видите в блоке с комментариями. Например, если Disqus пишет:

Disqus показывает 4 комментария

Заходим в исходный код и ищем там эту фразу. Как видите, там ее нет:

В исходном коде нет ни одного комментария

Как собрать эти данные, кроме как вручную мне, к сожалению, пока неизвестно. Как разберемся, обязательно поделюсь с вами этой информацией.

7. Facebook, Twitter, Google+

Расшаривания в Фейсбуке, Твиттере и Гугл+ собираются очень легко, буквально в два клика. Вы просто выбираете раздел Social, нужную соцсеть и вставляется в появившуюся строку URL страницы. Элементарно. Очень жаль, что создатели этого плагина не включили в свой список Вконтакте. Тогда цены бы ему не было.

Сбор расшариваний по всем соцсетям

8. Вконтакте

А вот здесь у большинства пользователей, не имеющих навыков программирования, может возникнуть проблема. Сколько мы ни бились над плагином Seo Tools, сколько ни пытались, но собрать расшаривания Вконтакте этим способом нам не удалось. Поэтому единственным решением этой проблемы стало создание специального скрипта, который отсылает запрос на сервер Вконтакте и получает ответ в виде количества расшариваний. Если кто знает, как это можно сделать по-другому, будем очень благодарны, если вы поделитесь с нами в комментариях. А тем, у кого нет возможности создания подобного скрипта, придется собирать вручную. Инструкцию по его созданию дать мы вам не можем, т.к. скрипт пишется индивидуально под каждый сайт.

9. Бэклинки

Плагин Seo Tools связан с сервисом Majestic Seo, с помощью которого можно собрать бэклинки. Но сервис платный и чтобы получить доступ к его возможностям, необходимо заплатить 2400 рублей.

Расценки Majestic Seo

Тем, у кого денег нет, кто продвигает свой сайт самостоятельно, придется собирать эти данные вручную. В этом вам поможет сервис ahrefs. Вводим ссылку и смотрим количество бэклинков. Очень удобно, но у данного сервиса (в бесплатной версии) есть один жирный минус – в день можно проверять не более 10 линков. Так что, если у вас большой сайт, все-таки придется раскошелиться.

Сервис ahref показывает количество бэклинков для каждой страницы

Что получилось?

В итоге у нас получилась вот такая табличка.

Финальная таблица со всеми нужными метриками

Пока это просто данные. И с первого взгляда непонятно, какая статья оказалась более эффективной, а какая – менее. 

 

Автора автора