17 полезных инструментов для вебмастера и оптимизатора

Я не буду разжевывать понятные вещи, такие как: что такое sitemap и для чего он нужен, почему текст и картинки должны быть уникальны и так далее. Это статья просто про инструменты вебмастера, которые может использовать в работе любой оптимизатор, веб-технолог, веб-программист, сеошник или просто предприниматель со своим сайтом.
Итак, приступим к краткому обзору программ!

 
 

Проверка скорости сайта

Проверяем с помощью сервиса GTmetrix. Это бесплатный сервис, разработанный канадскими молодцами. С помощью Page Speed and YSlow он анализирует сайт и выдает по нему ошибки и рекомендации к их исправлению. Тем самым зная, что нужно поправить, Вы улучшаете свой проект, избавляетесь от лишних ошибок и улучшаете скорость сайта.
Вскоре я напишу отдельную подробную статью по GTmetrix, где подробно распишу его достоинства и методы улучшения скорости сайта.
Так же для тех, кто не силен в английском языке, могу предложить сам сервис PageSpeed Insights от Google. Там даются те же самые рекомендации, только на русском языке.

Бонус к PageSpeed Insights

В отчете могут встретиться некоторые сокращенные многоточием строки с полным адресом картинок, скриптов или иных файлов.
полная ссылка в page speed
Чтобы сформировать четкий отчет и скопировать адрес файла полностью, прибегаем к одной интересной хитрости. В браузере Google Chrome устанавливаем расширение jQuerify.
расширение jquerify
После установки нажимаем на иконку программы на панели браузера – должен появится зеленый значок «$».После этого открываем Console: Ctrl + Shift + I, вставляем строчку кода и жмем Enter:
jQuery('.url-external').each(function(){jQuery(this).text(jQuery(this).attr('data-title'))})
После этого закрываем консоль и копируем строчки без многоточия. Приятного копирования и составления грамотного отчета!

 

Обнаружение ошибок HTML кода

Для выявления ошибок на стороне HTML разметки повсеместно все веб-специалисты пользуются валидатором W3C. Это инструмент анализа сайта, выполняющее проверку кода на соответствие общепринятым стандартам консорциума W3C.
Данный валидатор служит нам верой и правдой уже много лет, правда давно не обновлялся, но это не мешает ему быть самым популярным валидатором HTML. Сильнейших аналогов я пока не видел. Итак, как им пользоваться и структурировать данные в понятном виде?
Вставляем УРЛ главной страницы сайта в строку, далее открываем дополнительные опции More Options. Отмечаем нужные нам параметры, которые ниже отмечены на скрине:
Show Source – показать источник ошибки;
Validate error pages – подтвердить страницы ошибок;
Group Error Messages by Type – групповые сообщения об ошибках по типу.
валидатор w3c
Запускаем проверку сайта и получаем структурированный результат.

 

Анализ склейки домена, зеркал сайта, кодировки сайта и т.д.

Лично мне нравится сервис Bertal – показывает исчерпывающую информацию в доступном виде.
Поминаю, что какую то информацию можно достать в коде сайта такую как кодировка или проверить на зеркало с www /без www в ручную, но в этом сервисе просто и быстро проверить всё разом.
Склейку проверяем удаляя или добавляя www, в зависимости от настроек сайта.
Зеркальность с другими сайтами проверяем в сервисе XSeo.

 

Определение CMS сайта

Для тех, кто часто анализирует сайты нужно определять какая админка прикручена к исследуемому ресурсу. Для этого есть несколько сервисов и способов, но я лично пользуюсь сервисом 2ip. Конечно не всегда данный сервис находит CMS, которая используется на сайте, но если находит, то делает это быстро. Полезный сервис на вооружении быстрого анализа.
Вообще сервис 2ip славится своими небольшими бесплатными сервисами, которые могут быстро провести поверхностное исследование вашего сайта. Настоятельно рекомендую полазить по сервисам данного сайта. Я лично ещё пользуюсь сервисом быстрой проверкой сайта на вирусы и вредоносные скрипты от этой компании. Для моментальной и элементарной проверки сайта этого достаточно!

 

Проверка правильности составления файла robots.txt

Для этого используем наш всеми любимый Яндекс – Валидатор Robots.txt
Просто забиваем URL сайта в строку «Имя хоста» и нажимаем кнопку «Загрузить robots.txt с сайта»
анализ robots
Для проверки оптимизации сайта можно внести списком несколько ссылок с исследуемого сайта и посмотреть, закрыты они от индексации или нет. Так же можно корректировать правила robots.txt, вносить изменения, скопировать все правила и вставить их в файл.
Подробнее о составлении правильного файла robots.txt читайте в статье, которую я напишу чуть позже и дам здесь на неё ссылку.

 

Проверка корректности и наличия Sitemap

Опять же, как и в случае с robots, пребегнем к помощи Яндекса – Валидатор Sitemap.
Если сервис говорит нам, что файл sitemap недоступен, значит файла нет или он не корректно прописан, что равносильно его отсутствию.
валидатор sitemap
На проверку можно отправить файл, вставить ссылку вида http://ВашСайт/sitemap.xml (в основном файл называет именно так) или вставить саму разметку sitemap.

 

Проверка микроразметки и тега GEO

Здесь сразу две программы для сео оптимизации делят первое место пьедестала. Это валидатор микроразметки от Яндекса и Testing Tool от Google. Я лично пользуюсь гугловским сервисом? т.к. в нем все данные структурированы и понятно показаны, а в яндексовском валидаторе всё свалено в кучу и бывает что отображается всё вперемешку.
валидатор микроразметки testing tool
На картинке мы видим какие разметки данных представлены на Ламоде (взял в пример этот сайт для статьи).
Geo мета тег можно посмотреть в коде через отладчик (F12 в Chrome) или через одно расширение для Гугл Хрома META SEO Inspector.
расширение meta seo inspector
Обычно теги geo отображаются в расширении перед подзаголовком OpenGraph. На инспектируемом сайте этих тегов не нашлось, потому что этому сайту они не нужны, т.к. сайт является онлайновым магазином с без адреса.
Итак, пользуемся любым из перечисленных сервисов. Яндекс молодчина расписал в подробностях на русском языке как и для чего нужно делать микроразметку. Ну а если у вас нет Geo тега на сайте, сделайте, не поленитесь!

 

Проверка вирусов, фильтра АГС и понижающего фильтра, проиндексированных страниц

Здесь впервые в этой статье мы сталкиваемся с платным сервисом для анализа сайта от Seolib. Сервис хоть и платный, но данное исследование у вас отнимет не больше одного рубля!
сервис seolib
Это детище Юрия Кушнерова и Елены Камской позволяет проверять позиции сайтов, диагностировать различные поисковые санкции, проводить анализ ссылок и влияние ссылочного ранжирования для ключевых слов, подбирает для вас ключевые слова, анализирует ТОП, определяет релевантность текстов, так же имеет несколько сервисов для анализа сайта и генерации robots, sitemap и мета тегов. Советую зарегистрироваться в сервисе, оценить его функциональность и иметь его на вооружении своего сайта.

 

Анализ внутренних ссылок сайта

О том, как добыть все ссылки сайта, проанализировать мета теги (такие как title, description, keywords, h1, h2, посмотреть битые ссылки, возможные дубли страниц и т.д.), а так же как анализировать колоссального размера сайты больше 50 тысяч страниц читайте мою статью “Анализ внутренних ссылок сайта” на нашем блоге про два очень хороших инструмента для аудита сайта Screaming Frog и XML-Sitemaps.com.

 

Проверка уникальности текста

Есть множество инструментов для проверки сайта на уникальность текстов, но я, как опытный оптимизатор, привык использовать проект Text.ru.
Сервис является как платным, так и бесплатным. В бесплатном режиме текст можно проверять только вставляя его вручную, при этом соблюдая “очередь” на проверку. В платном же можно загружать сайт целиком, при этом есть несколько способов: позволить сервису самостоятельно найти все страницы сайта или загрузить их в ручную. После попадания ссылок на анализ, сервис предоставляет информацию по каждой странице: url, title и общее количество символов на странице.
проверка уникальности текста
Расчет стоимости проверки уникальности ведется от количества символов на странице. Самый маленький пакет проверки, который можно купить, стоит 300 рублей и в нем находится 600 тыс. символов. Для нескольких средних проектов я думаю этого достаточно! К тому же, если брать более объемные пакеты проверки, то цена по соотношению 1000 символов/n-рублей снижается.

 

Проверка уникальности изображений

Здесь всё просто! При том, что существует не мало сервисов и методов для проверки уникальности картинок таких как TinEye, самым безотказным и правильным методом будет использование поиска Яндекса и Google. Можно пользоваться любым из этих поисковиков для диагностирования уникальности, но для объективности данных желательно проверить изображения в обоих поисковиках.
загрузка изображения на проверку
Для примера я взял сервис Google Images. В него можно грузить изображения как ссылкой, так и файлом. Собственно в Яндекс.Картинках тоже самое.
проверка картинок на уникальность
После смотрим в выдаче “Страницы с похожими изображениями”. Если похожих изображений нет, то изображение уникально.
уникальность картинки в яндексе
В скрине выше приведен пример проверки в Яндексе. Он сообщил, что “Таких же картинок не найдено”. А вот Google нашел кучу похожих лягушек в своих базах. Так что для Яндекса изображение будет уникальным, а для Google нет.

 

Проверка тошноты текста

Тут несомненным лидером я считаю сервис Advego с его инструментами web мастера, а именно семантический анализ текста. Он прост в использовании – копируете текст со страницы, вставляете в обработчик сервиса и нажимаете “Проверить”. Ничего лишнего!
На выдаче мы получим данные:

  • статистика текста;
  • семантическое ядро страницы;
  • слова и стоп слова, а так же частота их использования.

Ну и собственно саму тошноту текста, которая нам так нужна:
проверка тошноты текста
При этом мы получаем подробные данные о контенте страницы.

 

Поиск битых ссылок и картинок

В этом пункте статьи мы обратимся к проверенной и “бородатой” программе Xenu. Она скачивается на компьютер, не требует дополнительных сложных настроек и интуитивно понятна. Она анализирует все файлы сайта, включая css, javascript, изображения с сайта, страницы и т.д.
поиск битых ссылок и картинок
На выходе получаем список из битых файлов. Всё просто и быстро!

 

Проверка исходящих и внутренних ссылок сайта

В последнее время для решения этой задачи начал прибегать к сервису Mainspy.
исходящие и внутренние ссылки сайта
Ничего сложного в этой программе для аудита сайта нет – вставляем ссылку и поехали!
Так же на этом сайте есть уйма полезных инструментов для оптимизаторов и вебмастеров.

 

Внешние ссылочные факторы и несуществующие страницы

В этом пункте мы рассмотрим сервис Ahrefs. Несмотря на то, что он является коммерческим сервисом, многие его фишки доступны бесплатно (а также после прохождения регистрации снимается ряд ограничений). Итак, рассмотрим какие плюсы имеются у сервиса Ahrefs и как его использовать для анализа внешней факторов сайта.
Возможности Ahrefs:

  • поиск количества и источников обратных ссылок;
  • просмотр и экспорт анкор-листа;
  • анализ позиций;
  • поиск страниц сайта, на которые чаще всего ссылаются;
  • анализ ссылок на поддомены;
  • поиск наиболее часто ссылающихся доменов;
  • просмотр последних найденных обратных ссылок;
  • а так же посмотреть часто ссылающиеся страны и доменные зоны.

обзор отчета Ahrefs
Скриншон не описывает и маленькой доли возможностей этого seo сервиса по анализу сайта!
Настоятельно советую зарегистрироваться и проанализировать свой сайт!

 

Проверка наличия Last-Modified

Функцией заголовка, как можно догадаться из названия, служит информирование клиента о дате последней модификации документа. Как написано в помощи Яндекса: “робот не сможет получить информацию о том, обновилась ли страница сайта с момента последнего индексирования. А так как число страниц, получаемых роботом с сайта за один заход, ограничено, изменившиеся страницы будут переиндексироваться реже”
Так что заголовок Last Modified важен для сайта. Чтобы проверить, есть он на сайте или нет, прибегнем к сервису Last-Modified.com
проверка last modified на сайте
Как можно наблюдать выше исследуемый сайт не прошел проверку. Если у вас не настроен Last Modified на сайте – настройте его, не поленитесь.

 

Бонус к статье: чистка кэша в браузере

Иногда нужно быстро очистить кэш не всего браузера, а именно одной страницы или всего сайта. Для выполнения этой задачи есть несколько способов.

Комбинации клавиш в браузерах

  • Google Chrome: Нажмите Ctrl+Shift+R (⌘+Shift+R на Mac)
  • Firefox / Safari: Удерживая клавишу Shift, нажмите на панели инструментов Обновить либо нажмите Ctrl+F5 или Ctrl+R (⌘+R на Mac)
  • Internet Explorer: Удерживая Ctrl, нажмите Обновить либо нажмите Ctrl+F5
  • Opera: Выберите очистку кэша в меню Инструменты → Настройки

Небольшая хитрость в Google Chrome

Необходимо зайти на нужную страницу, включить отладчик (F12) и при включенном отладчике нажать правой кнопкой мыши на кнопку перезагрузки страницы в панели браузера. В появившимся окошке кликаем по пункту “Очистка кеша и аппаратная перезагрузка”.
очистка кеша и аппаратная перезагрузка

Файлы cookie и данные сайтов в Google Chrome

Для очистки кэша всего сайта в Google Chrome используем Settings → Cookies
удаление кеша в настройках гугл хром
Вписываем URL сайта в поиск, после этого все файлы и хранилища. Нажимаем “Удалить все показанные файлы cookies” и не забываем нажать перед выходом кнопку “Готово”

 

Автора автора