Огляд Netpeak Spider - інструменту для внутрішнього аудиту сайту
- Для кого цей софт?
- Відмінності від попередньої безкоштовної версії
- Що вміє новий Netpeak Spider?
- Кілька порад для тих, хто планує скористатися Netpeak Spider
- 2. Не намагайтеся відразу знайти всі помилки
- 3. Пам'ятайте, що не завжди обов'язково сканувати сайт повністю
- 4. Використовуйте Netpeak Spider не тільки для SEO-аудиту, але і для більш ефективного збору семантичного...
- 5. Правильно знаходите 400-е помилки
- Що щодо платної ліцензії?
У статті я поділюся своєю суб'єктивною думкою про такий потужний інструмент для SEO-аудиту як Netpeak Spider . Відразу зазначу: ця програма платна. Але у неї є безкоштовний 14-денний пробний період, якого достатньо, щоб привести в порядок свій невеликий ресурс на кілька сотень сторінок. З спритними SEO-шниками і програмістами полагодити можна і набагато об'ємніший ресурс.
Для кого цей софт?
В першу чергу для SEO-фахівців. Людині, який взагалі не розбирається в оптимізації, буде складно з ним розібратися. Багато налаштувань, багато незрозумілих помилок. Проте, деякі функції програми може користуватися практично будь-який власник сайту. Допоможуть підказки та пояснення в самій програмі, допоможуть статті в блозі Netpeak, допоможе ось цей мій пост.
Для SEO-шника Netpeak Spider надає дуже широкі можливості. Особливо він сподобається тим «фахівцям», які беруть гроші не за результати, а за гарні об'ємні звіти. Краулер перевіряє сайт на наявність понад 60 помилок. І практично по кожній помилці (про це нижче) можна створити окремий звіт на сотні і тисячі рядків в Excel. Для багатьох замовників (на жаль) розмір звіту має значення. За допомогою Netpeak Spider його можна дуже добре (і головне, швидко) роздути.
Відмінності від попередньої безкоштовної версії
Кілька років тому програма була безкоштовною. Можна було один раз завантажити і потім проводити хоч сотні аудитів.
Для тих моїх читачів, які користувалися безкоштовною версією Netpeak Spider, хочу повідомити наступне:
- Це зовсім інший софт. В оновленому Netpeak Spider в десятки разів більше можливостей (про деякі з них нижче).
- Тепер звіти можна зберігати. Цього так не вистачало в старій версії.
- Краулер більше не перевантажує сервери хостингів. Раніше це було серйозним недоліком. Кілька разів я сканував свої сайти, і через занадто великого навантаження хостинг блокував мій IP. Тобто після блокування я взагалі не міг зайти на потрібний сайт зі свого комп'ютера. Зараз з цим проблем немає. За допомогою нового Netpeak Spider я встиг просканувати близько 10 сайтів різного об'єму на різних хостингах. Жоден раз не зіткнувся з блокуванням або різким припиненням сканування.
Що вміє новий Netpeak Spider?
Вміє він багато.
Починаючи від простих і зрозумілих практично всім функцій:
- Виявлення дублікатів Title і Description.
- Виявлення порожніх або відсутніх мета-тегів.
- Пошук дублів H1.
- Пошук і виявлення 4xx помилок (коли посилання веде на неіснуючу сторінку).
- Виявлення зображень, в яких не прописаний атрибут ALT.
І закінчуючи перевіркою сайту на такі параметри, як:
- Сторінки без внутрішніх посилань.
- Ланцюжок редиректів.
- протокол HTTPS .
- Посилання з неправильним форматом.
- Чи однакові H1 і Title.
Ще він вміє максимально швидко сканувати невеликі сайти (до декількох тисяч сторінок).
Всі скріншоти з великою кількістю даних клікабельні. Натискайте на них лівою кнопкою миші.
Справа в тому, що провести аудит вашого ресурсу можна за допомогою стандартних і безкоштовних можливостей Яндекс.Вебмайстер і Google Search Console.
Google Search Console дозволяє безкоштовно і дуже просто виявити дублі Title і Description, а також побачити неінформативні з точки зору Google мета-теги і мета-теги невідповідного розміру. Це не повноцінний SEO-аудит, але це одні з найважливіших параметрів ресурсу, які треба виправити якомога швидше.
Важливо розуміти, що павук від Netpeak перевірить ваш сайт набагато швидше. Якщо вчасно усунути всі помилки, можна роздобути кілька тижнів, а то і місяців додаткового трафіку. Трафіку, який призводить клієнтів і генерує продажу.
Кілька порад для тих, хто планує скористатися Netpeak Spider
1. Не сприймайте ВСЕ помилки, знайдені програмою, занадто серйозно
Справа в тому, що краулер завжди знаходить сотні помилок на будь-якому, навіть продуманому і оптимізованому сайті. Як я вже зазначив вище, користь від виявлення цих помилок може отримати тільки хитрий і не дуже вправний SEO-шник. Порядні професіонали проігнорують їх більшу частину і вкажуть вам тільки на найважливіші.
Нижче результат сканування moz.com - сайту, напевно, найвідомішого в світі SEO-агентства.
Як бачите, краулер встиг перевірити 3484 сторінки і знайшов на цих сторінках 2559 помилок. Погляньте на стовпчик праворуч. Цілих 833 сторінки, на яких кілька тегів Title.
Справа тут не в тому, що співробітники Moz захворіли на зіркову хворобу і забили на свій ресурс (у них чудовою, правильно оптимізований ресурс, роботу над яким вони не припиняють ніколи). Суть в тому, що Netpeak Spider - хороший, але не ідеальний сканер. Часто він не дає якогось чіткої відповіді. Він надає інформацію, яку повинен проаналізувати обізнана людина.
Наприклад, дані про те, що на багатьох сторінках більше одного тега Title. Я ретельно вивчив код сторінок, на які поскаржився Netpeak Spider. Немає на них двох мета-тегів Title. Є там ось такий код:
В даному випадку <title> </ title> - атрибут елемента svg. Таких атрибутів може бути кілька на сторінці, і вони абсолютно не так сприймаються пошуковими системами, як мета-тег Title.
2. Не намагайтеся відразу знайти всі помилки
Чим менше у вас знань і досвіду в SEO, тим більше «щадні» настройки програми варто вибирати. Коли цих знань і досвіду мінімум, ставте приблизно такі настройки сканування:
Чи не скупіться. Не намагайтеся отримати все і відразу. Починайте з основних помилок.
3. Пам'ятайте, що не завжди обов'язково сканувати сайт повністю
Коли у вас великий інтернет-магазин з сотнями тисяч сторінок, на його краулінга може піти не один день. А потім потрібно не один день розбиратися зі всієї зібраної інформацією. Іноді досить проіндексувати третину потрібних сторінок і подивитися на патерни (повторювані шматки).
Зараз поясню на прикладі. Нижче ви бачите частина дублів Title, які Netpeak Spider знайшов на сайті Avtogorod39.
Як ви думаєте, вже зрозуміло, які зміни треба вносити в сайт або ж потрібно просканувати ще 99999 сторінок?
Все правильно, картинка вже і так зрозуміла. Нам потрібно позбутися від 3 «хвостиків», які постійно повторюються. Зробити це можна за допомогою rel = «canonical» (більш прийнятний варіант) або за допомогою додавання ось таких рядків в Robots.txt:
Disallow: / *? Limit = 24
Disallow: / *? Sort = reset
Disallow: / *? Grid = list
4. Використовуйте Netpeak Spider не тільки для SEO-аудиту, але і для більш ефективного збору семантичного ядра і оптимізації сторінок
За допомогою цього софта у вас можуть бути тайтла і Діскріпшени всіх головних конкурентів. Все в зручній акуратною таблиці Excel. Не всі можуть і хочуть скористатися цими даними, але повірте, це цінна інформація, яка зробить ваше просування в пошуку більш ефективним.
5. Правильно знаходите 400-е помилки
Справа в тому, що я сам не відразу розібрався, як бути з 4xx помилками. Виявляється, що для того, щоб побачити URL з яких йде посилання на помилки і самі сторінки, які віддають 400-ю помилку, треба зробити ось таку послідовність дій: Натиснути в лівій колонці на напис «4xx помилки: Client Error, потім натиснути на« зведення по поточній таблиці »і нарешті на« Вхідні посилання ». Скріншот вам на допомогу:
Що щодо платної ліцензії?
місяць використання Netpeak Spider коштує 14 доларів. Якщо вважати, що під час двотижневого тестового періоду вам дістається повнофункціональна версія програми, можна сказати що за 14 доларів ви отримуєте доступ до всіх можливостей сканера на півтора місяця. 14 доларів - це набагато менше, ніж просять за SEO-аудит професійні (і не дуже професійні) оптимізатори. Півтора місяці - серйозний термін, за який можна виправити все косяки, які знайде краулер.
Правда, якщо у вас невеликий сайт (не більше 100 сторінок), я б не рекомендував платити за павука від Netpeak. Краще і повністю безкоштовно з SEO-аудитом невеликого ресурсу впорається, наприклад, Serpstat . З настройками Serpstat простіше розібратися, для проведення SEO-аудиту не потрібно нічого встановлювати на комп'ютер + не забуваємо про головне призначення сервісу - збір семантичного ядра. Зазначу, що ресурс, який складається з декількох сотень сторінок вже не по зубам безкоштовної версії Серпстат, а мінімальний тариф у них - 19 доларів на місяць.
Для кого цей софт?Для кого цей софт?
Що вміє новий Netpeak Spider?