Безкоштовні сервіси SEO аналізу сайту з інструкціями

  1. Screaming Frog SEO Spider
  2. Microsoft IISSEO
  3. І наостанок ржачний SEO-прикол)))

Привіт, шановні читачі сайту Uspei.com. Оскільки робота над індексацією і оптимізацією сайту часто пов'язано з аналізом дуже великої кількості даних, то я рекомендую вам її автоматизувати, хоча б на стадії аудиту, тобто аналізу вашого сайту або сайту ваших клієнтів.

Ну, по-перше, можна автоматизувати перевірку наявності та відповідності вимогам всіх базових html тегів : Title, description, h1-h6 і т.д. Ми можемо це перевіряти автоматично за допомогою спеціальних програм. Також такі програми дозволяють знаходити і дублі контенту , Тобто сторінки, які повторюють один одного.

Ми говорили, що дублі контенту потрібно або редирект в залежності від ситуації, або закривати від індексації, або просто видаляти, в залежності того, як цей дубль був створений.

Також корисно перевірити свій сайт на наявність малоінформативних сторінок. В основному всі потужні інструменти для seo аудиту платні. Але все ж залишилося кілька інструментів у відкритому безкоштовному доступі, якими ви можете користуватися, при цьому не платити за ці інструменти.

До змісту ↑

Screaming Frog SEO Spider

Перший дуже популярний інструмент - це інструмент Screaming Frog SEO Spider . В принципі, він платний, але його демоверсія (тобто безкоштовна версія) вона повністю працює на сайтах до 500 сторінок. Якщо ваш сайт до 500 сторінок, тобто він невеликий, то ви можете скачати цей cleaning frog spider.

Це десктопних програм, ви встановлюєте його собі на комп'ютер, вказуєте адресу свого сайту, скануєте і він дає вам звіт по ваших сторінок. На яких сторінках є заголовки, на яких є теги, які це теги, чи є сторінки, які не працюю, тобто віддають 404 відповідь. Також ви можете шукати дублі.

До змісту ↑

Microsoft IISSEO

Другий інструмент, який стоїть окремо відзначити, це інструмент Microsoft IISSEO. Це повністю безкоштовний ПОТУЖНИЙ інструмент від компанії microsoft, який чомусь не дуже велика кількість людей використовує. Я в основному це пов'язую з тим, що він досить складно встановлюється.

Це частина серверних додатків від microsoft і не на всі системи він легко встановлюється. На деякі системи встановлюється в два кліка, на деяких виникають труднощі. У чому його плюси - він абсолютно безкоштовний. Дуже потужна підтримка російської мови, ну і більшість взагалі мов, повністю переведений. Дуже багато позитивних відгуків і мені теж сподобався, знайшов і виправив багато помилок.

Сам, якщо чесно, витратив чимало часу, щоб він запрацював. Спрощу вам його установку. Спочатку завантажуєте сам інсталяційний файл, відповідний вашій системі (x32-x64) - завантажити . Пробуєте запустити і встановити, як звичайний інсталятор. Якщо видає таку помилку: "Для установки Інструменти оптимізації IIS Search Engine ... потрібно IIS версії 7.0 або більш пізньої"


Тоді завантажуєте цю хрень по цій засланні і встановлюєте її. Якщо вона видає теж помилку: "Тhe IIS management Console is not instaled, but it is requered for managing remote IIS Servers ..."

Те заходите в "Панель управління" - "Видалення програм" - зліва "Включення і відключення компонентів" - вибираєте "Служби IIS", проставляєте галочки і тиснете "ок". Після поновлення знову пробуєте встановити "ту хрень" і після її установки вже саму програму Microsoft IISSEO.

Програма дозволяє сканувати сайти будь-якого обсягу і ще у неї дуже цікавий звіт про помилки, який ідеально підходить для початківців seo оптимізаторів, тому що все все помилки він ділить на технічні та seo помилки. І кожну помилку ще позначає за ступенем важливості.

Прога просто не обмежена за можливостями, тобто ви можете сканувати сайт і з десятками тисяч сторінок. Єдиний мінус - працює вона досить довго, то є великий сайт ви можете сканувати кілька годин, а то й цілий день. Сайт в 600 сторінок я просканував за 6 хвилин.

Давайте подивимося, як раз на прикладі microsoft toolkit, як виглядає такий аналізатор, що з нього можна отримати. Ось, власне, сам інтерфейс:

Ми запускаємо аналіз, тобто вказуємо адресу і запускаємо.

Після чого, ми отримуємо дані, скільки було знайдено сторінок, скільки їх завантажено, коли почався аналіз, коли закінчився і кількість порушень.

У вкладці "порушення" ми бачимо, власне, всі помилки, які виявив аналізатор. Наприклад, відсутність атрибуту alt в тезі img. Тобто не оптимізовані повністю картинки. Про те, як їх оптимізувати читайте в цьому пості .


Подвійний клік на цю помилку і ми бачимо, де він знайшов цю картинку без атрибута alt, ми отримуємо короткий опис помилки, навіть є рекомендований дію, що нам потрібно зробити і найголовніше навіщо і чому.

Зверху ми бачимо все такі помилки, їх повний перелік. Ми можемо перемикатися між ними і переглядати. Окремо варто відзначити можливість перемикатися між вкладками, тобто ми можемо подивитися по цій сторінці саме код, де знаходиться ця помилка.

Ми можемо подивитися відповідь сервера по цій сторінці, ми можемо проаналізувати окремо цю сторінку навіть частотну таблицю. Таблицю слів, таблицю фраз, тобто у нас величезні можливості по аналізу цієї сторінки з усіх боків. Тобто давайте подивимося ще якісь помилки знайшов нам цей аналізатор.

Відсутнє description на сторінці велика кількість таблицею стилів. Багато javascript. Сторінка містить непрацюючі посилання. Тобто на сторінці десь є посилання? які ведуть на іншу сторінку, яка дає відповідь сервера 404. І ми можемо подивитися, де ці посилання в коді - це дуже зручно і швидко ми можемо все це виявити.

Є просто відмітки про інформації, наприклад, 23 сторінки заборонено у файлі robots.txt. Це не помилка, тобто вона відзначена просто як інформація, що ми повинні звернути на це увагу. Ми можемо подивитися, які конкретні сторінки, щоб упевнитися, що до цих сторінок дійсно заборонені в robots.txt і ми розуміємо, що це правильно, що їх не потрібно відкривати.

Тобто зайвий раз перевірити ще раз свій robots.txt . Окремо варто відзначити вкладочку "вміст". Тут ми можемо подивитися, що у нас повторюється, які у нас є зовнішні посилання, які у нас є повторювані назви.

Тобто по повторюваним назвою ми легко можемо виявити дублі контенту. Є пошук повних дублів, тобто якщо сторінка повністю один одного повторює, то ми можемо побачити ці найповніші дублі і вже потім вирішити, як ми можемо виправити ці дублікати і або закрити їх від індексації, або перенаправити, тобто використовувати відповідний метод.

Окремо варто відзначити функцію "повторного сканування". Тобто, коли ми просканували свій сайт, виправили якісь помилки їх стало менше. Ми повторно відправляємо сайт на повторне сканування в цій програмі і у нас є автоматичний звіт, в якому ми можемо відправити нашу сторінку на повторну перевірку.

Після чого ми можемо вибрати кілька звітів і натиснути порівняти результати. Порівняти звіти і програма автоматично порівняє нам перший аналіз з другим аналізом і покаже, які помилки були усунені. Чи стало їх менше, яким чином вони були усунуті і т.д.

Це дозволяє в автоматичному режимі швидко перевіряти впровадження цих правок, які ви описали в своєму технічному завданні на оптимізацію. Тобто банально якихось базових речей.

Ви можете експортувати все це в зручні для вас формати. Якщо ви працюєте з сайтом більше ніж на сто сторінок вкрай рекомендую використовуйте будь-які аналізатори, інакше робота над сайтом може дуже сильно затягнутися.


До змісту ↑

І наостанок ржачний SEO-прикол)))


До зустрічі! Встигайте все і завжди на сторінках блогу Uspei.com

Допоможи проекту - підпишись на наш Яндекс.Дзен канал!

Тобто на сторінці десь є посилання?