Технічний аудит сайту

  1. Перевірка індексації сайту в пошукових системах
  2. Перевірка сторінок сайту на дублі і синоніми домену
  3. Перевірка на биті сторінки
  4. Перевірка на наявність афіліатов
  5. Перевірка файлу robots.txt
  6. Перевірка файлу sitemap.xml
  7. Аналіз швидкості завантаження сайту
  8. Перевірка унікальності текстів
  9. Перевірка alt і title у зображень
  10. Аналіз посилального профілю
  11. Перевірка на фільтри пошукових систем
  12. аналіз сниппета
  13. Тема H1
  14. Перевірка наявності та змісту тега title і метатегов (description і keywords)

Технічний аудит - стандартна процедура при просуванні сайту в пошукових системах, яка здійснюється для виявлення та виправлення основних помилок інтернет-ресурсу.

У цій статті розглянемо як зробити технічний аудит веб-сайту самостійно по чек-листу, який можна буде скачати в кінці статті.

У пошукових системах набагато краще ранжуються «хороші» сторінки, які не мають помилок. А решту сторінок з деякими технічними недоліками, недоробками користувач може не побачити в пошуку зовсім.

Крім того, «погані» сторінки, що мають помилки, можуть ускладнювати ранжування «хороших».

Проведення технічного аудиту саме по собі не призводить до збільшення трафіку, але виправлення помилок, пов'язаних з просуванням, покращує ранжування сайту в цілому.

Основними інструментами для проведення технічного аудиту є:

  • NetPeak Spider (платна);
  • Screamingfrog (платна);
  • Xenu (безкоштовна);
  • RDS бар (безкоштовно);
  • LinkPad (частково безкоштовно).

Перевірка індексації сайту в пошукових системах

У пошукової системи Google існує 2 види індексу: основний і повний. Google підхоплює в свій повний індекс всі сторінки сайту, а в основний індекс поміщає тільки «хороші» на його думку сторінки.

Що стосується Яндекса, то у нього є якийсь аналог повного індексу Google - це число завантажених сторінок в Яндекс.Вебмастере. Публічно Яндекс показує тільки ті сторінки, які беруть участь в пошуку. Порівнювати потрібно основний індекс Google з індексом Яндекса. Сайт вважається «здоровим», коли основний індекс Google приблизно збігається з індексом Яндекса.

Технічний аудит - стандартна процедура при просуванні сайту в пошукових системах, яка здійснюється для виявлення та виправлення основних помилок інтернет-ресурсу

Перевірка кількості проіндексованих сторінок в пошукових системах Яндекс і Google за допомогою розширення для браузера RDS bar

Якщо індекси значно відрізняються, тобто відмінності значень більше 20%, то проблеми в тій пошуковій системі, де значення менше.

Перевірка сторінок сайту на дублі і синоніми домену

Головна сторінка сайту може бути доступна за кількома адресами: з www і без www, зі слешем і без слеша на кінці, з закінченням index.html / .php і без нього. Це все одна і та ж сторінка, але для пошукової системи це все різні сторінки, які вона вважає дублями. Такі дублі дуже погано позначаються на ранжируванні і їх необхідно прибирати різними способами.

Також будь-які інші дублі аналогічним чином заважають займати високі позиції в пошуковій видачі.

Перевірка на биті сторінки

Биті сторінки - це ті сторінки, при запиті яких сервер видає помилку 404 (така сторінка видалена або її не існує), сторінки без контенту (порожні), підсумки пошуку по сайту, який завершився безрезультатно і т.д. Такі сторінки потрібно виключати з індексу пошукових систем, якщо вони там знаходяться, тому що це:

  • негативно позначається на поведінкових факторах вашого сайту;
  • неефективно витрачається краулінговий бюджет.

Для перевірки на наявність битих посилань раджу використовувати зручну програму Xenu. Вона видає перелік битих посилань, його можна експортувати в окремий файл. Потім оптимальним рішенням буде внести їх в виняток файлу robots.txt.

Сторінки без контенту можна виявити або звичайні переглядом, або перевіряти ті, які не стримають тега H1.

Перевірка на наявність афіліатов

Афіліат - певний зв'язок в пошуковій базі Яндекса кількох інтернет-ресурсів, що забороняє відображати більше одного сайту за запитом, з яким вони все релевантні. Припустимо, одна організація створила кілька дочірніх інтернет-ресурсів, пошук може подумати, що вони пов'язані з основним сайтом.

Перевірка файлу robots.txt

Приклад роботи файлу robots.txt

Це документ, що знаходиться в корені сайту, допомагає закрити все те, що не потрібно індексувати пошуковим системам. Це стосується панелі управління сайтом, особистих профілів користувачів і інших блоків інтернет-ресурсу, які не повинні бути в публічному доступі. У ньому слід вказати головне дзеркало для Яндекса і дати посилання на sitemap.xml.

Команди, які використовуються в даному документі:

Host: вказуєте головне дзеркало.

Disallow: цією командою можна закрити сторінки і розділи, які ми не хочемо, щоб індексувалися.

Sitemap: інформує пошукового робота про місцезнаходження посилання на sitemap.xml, проходячи через яку він поміщає сторінки на індексацію.

User-agent: пошуковий робот Яндекс / Googlebot.

* - позначає будь-якого юзерагента;

/ - в команді Disallow означає заборону індексації всього вмісту.

Потрібно вказувати абсолютно всі сторінки, розділи, які заборонені для індексації.

Сторінки, які зазвичай закривають, бо вони не потрібні в індексі:

  • сторінки для друку;
  • сторінки перерахування (пагінацію) з однаковим описом;
  • дублі сторінок;
  • профілі користувачів;
  • сторінка результатів пошуку;
  • сторінки, що залишилися від старої CMS та інше.

Прочитати інструкції як сформувати файл robots.txt, ви можете на сторінках «Допомога в Яндекс.Вембастер» або http://robotstxt.org.ru/ .

Після створення robots.txt варто перевірити, як його бачить Яндекс. Для цього використовуйте інструмент Яндекс.Вебмайстер.

Перевірка файлу sitemap.xml

Це певний файл, який містить інформацію про посилання на всі основні сторінки сайту. Sitemap.xml створюється для роботів пошукових систем. Завдяки карті сайту вони швидше індексують зазначені там сторінки, менше витрачаючи краулінговий бюджет. В даному файлі можна вказати до 50000 посилань на сторінки сайту, задати відносний пріоритет і частоту оновлення сторінок.

Аналіз швидкості завантаження сайту

Швидкість завантаження інтернет-ресурсу - найважливіший на сьогоднішній день критерій ранжирування пошуковими системами. На додаток до цього цей параметр істотно впливає на зміну поведінкових факторів, оскільки користувачі не будуть довго чекати завантаження сторінок сайту і підуть на інший.

Найбільш популярні онлайн-сервіси, за допомогою яких можна перевірити швидкість завантаження вашого сайту:

  • https://developers.google.com/speed/pagespeed/insights/ (Популярний сервіс від Google відображає швидкість завантаження в балах від 0 до 100, причому як для десктопів, так і для мобільних версій інтернет-ресурсу);
  • https://tools.pingdom.com/ (Здійснює перевірку швидкості, відображає число запитів до хостингу і деякі інші параметри. У підсумковій таблиці досить детально відображаються результати по кожному запиту до сервера. Зручно дивитися, що конкретно заважає прискорити завантаження).

Перевірка оптимізації сторінок сайту для мобільних пристроїв і стаціонарних комп'ютерів

Перевірка унікальності текстів

Тексти, що розміщуються на сторінках вашого інтернет-ресурсу повинні бути унікальні.

Тексти, що розміщуються на сторінках вашого інтернет-ресурсу повинні бути унікальні

Перевірка тексту на унікальність

Онлайн-сервіс перевірки унікальності контенту https://text.ru/. Потрібно прагнути до унікальності вмісту сторінки від 90%.

Перевірка alt і title у зображень

Дані метатеги потрібно вказувати для кращого ранжирування сайту в пошуку по картинках. Зміст alt і title також повинні бути унікальні і не збігатися між собою

Аналіз посилального профілю

Для аналізу посилального профілю сайту можна використовувати сервіс LinkPad. Перейшовши за посиланням https://linkpad.ru/ ви потрапите на головну сторінку, де необхідно ввести в рядок пошуку посилань адреса досліджуваного інтернет-ресурсу і натиснути «Знайти посилання».

На отриманому графіку відразу буде видно тенденція просування посиланнями.

Аналіз посилального профілю

Для аналізу посилального профілю сайту можна використовувати і платні сервіси, які показують значно більш детальну інформацію:

  • Ahrefs - сервіс, який проводить аналіз зовнішньої оптимізації сайту, представляючи отримані дані у вигляді різних діаграм і графіків.
  • CheckTrust - оцінює якість зовнішніх посилань;
  • MajesticSEO - сервіс перевірки зворотних посилань на ваш сайт. C його допомогою можна детально проаналізувати URL і дізнатися кількість посилань історію інтернет-ресурсу.

Є й інші онлайн-сервіси для цих цілей, але перераховані вище найбільш відомі і популярні.

Перевірка на фільтри пошукових систем

Фільтри Яндекса:

  • Переспа або переоптімізацію - різке зниження позицій по одному або декільком запитам, сильна різниця в позиціях при зміні порядку слів в запиті;
  • фільтр за накрутку поведінкових факторів - випад позицій за топ-50 підтвердження в листі від підтримки Яндекса;
  • АГС - за низьку якість сайту, можна просто поліпшити різні розділи і сторінки сайту і його знімуть.

Фільтри Google:

  • пінгвін - наявність зауважень в Search Console в розділі «Заходи, прийняті вручну», зустрічається автопінгвін, що характеризується зниженням позицій по частині запитів;
  • панда - різке падіння трафіку і позицій по більшості запитів при слабкому контенті;
  • низька якість - ні трафіку і не було ніколи, слабкий і дубльований контент.

аналіз сниппета

Сніппет - це короткий опис сторінки сайту в пошуковій видачі, який дозволяє отримати уявлення про документ і навіть шукану інформацію. Частота кликабельности сниппета є на сьогоднішній день дуже важливою умовою високого ранжирування пошуковими системами. Тому потрібно робити його максимально інформативним і чіпляють.

Тому потрібно робити його максимально інформативним і чіпляють

Сніппет пошукової системи Яндекс

Збільшити вміст сниппета можна заповнивши максимально повно інформацію в довіднику Яндекса, панелі вебмастера Яндекса, на картах Google.

Крім того, можна впровадити мікророзмітки http://schema.org/ , Але для цього можливо буде потрібно програміст.

Також тег title має дуже важливе значення при кликабельности сниппета. Title не повинен бути коротким, він повинен бути чіпляють, на нього має хотітися клікнути!

Тема H1

Тег h1 повинен бути на сторінці в будь-якому випадку, тому що це покажчик пошуковому роботу який заголовок з усього тексту тут найголовніший. Тема з тегом h1 слід розміщувати вище всіх інших. Якщо цього тега немає, то це недоробка і її бажано усунути. Якщо ж цих тегів кілька, то це вже помилка, оскільки пошуковий робот сам може неправильно визначити, що потрібно індексувати в першу чергу.

Якщо ж цих тегів кілька, то це вже помилка, оскільки пошуковий робот сам може неправильно визначити, що потрібно індексувати в першу чергу

Перевірка наявності h1

Перевірка наявності та змісту тега title і метатегов (description і keywords)

Ці теги і метатеги також повинні бути унікальні і не повторюватися на інших сторінках вашого інтернет-ресурсу.

Тег title - найголовніший тег, який враховується при ранжируванні. Загальна рекомендація по його довжині - середнє значення по топ-10 з пошукової видачі з вашої тематики.

Метатег description - опис сторінки сайту, прямо не враховується пошуковими системами при ранжуванні, але може частково виводитися в сніпеті в Яндексі і майже завжди в Google.

Метатег keywords давно втратив свою актуальність для Яндекса і Google, тому зараз його вже краще не заповнювати зовсім, щоб не отримати фільтр від пошукачів за Переспа або переоптімізацію.

Тут перераховані тільки основні параметри, аналізуючи які можна провести технічний аудит сайту і виробити рекомендації по його просуванню. Як приклад чек-листа для проведення технічного аудиту можете скачати ось цей . Повні технічні аудити складаються з декількох десятків пунктів, виробляють більш детальний аналіз інтернет-ресурсу. Крім того, успішне просування сайту неможливо без проведення повноцінного технічного аудиту.