Бясплатныя сэрвісы SEO аналізу сайта з інструкцыямі

  1. Screaming Frog SEO Spider
  2. Microsoft IISSEO
  3. І напрыканцы ржачный SEO-прыкол)))

Добры дзень, паважаныя чытачы сайта Uspei.com. Паколькі праца над індэксацыяй і аптымізацыяй сайта часта звязана з аналізам вельмі вялікай колькасці дадзеных, то я рэкамендую вам яе аўтаматызаваць, хоць бы на стадыі аўдыту, то ёсць аналізу вашага сайта або сайта вашых кліентаў.

Ну, па-першае, можна аўтаматызаваць праверку наяўнасці і адпаведнасці патрабаванням ўсіх базавых html тэгаў : Title, description, h1-h6 і г.д. Мы можам гэта правяраць аўтаматычна з дапамогай спецыяльных праграм. Таксама такія праграмы дазваляюць знаходзіць і дублі кантэнту , То ёсць старонкі, якія паўтараюць адзін аднаго.

Мы казалі, што дублі кантэнту трэба альбо скіроваць у залежнасці ад сітуацыі, альбо зачыняць ад індэксацыі, альбо проста выдаляць, у залежнасці таго, як гэты дубль быў створаны.

Таксама карысна праверыць свой сайт на наяўнасць малаінфарматыўныя старонак. У асноўным усе магутныя інструменты для seo аўдыту платныя. Але ўсё ж засталося некалькі інструментаў у адкрытым бясплатным доступе, якімі вы можаце карыстацца, пры гэтым не плаціць за гэтыя інструменты.

Да зместа ↑

Screaming Frog SEO Spider

Першы вельмі папулярны інструмент - гэта інструмент Screaming Frog SEO Spider . У прынцыпе, ён платны, але яго дэмаверсія (гэта значыць бясплатная версія) яна цалкам працуе на сайтах да 500 старонак. Калі ваш сайт да 500 старонак, гэта значыць ён невялікі, то вы можаце спампаваць гэты cleaning frog spider.

Гэта дэсктопнага прыкладанне, вы ўсталёўваеце яго сабе на кампутар, паказваеце адрас свайго сайта, сканируете і ён дае вам справаздачу па вашых старонках. На якіх старонках ёсць загалоўкі, на якіх ёсць тэгі, якія гэта тэгі, ці ёсць старонкі, якія не працую, то ёсць аддаюць 404 адказ. Таксама вы можаце шукаць дублі.

Да зместа ↑

Microsoft IISSEO

Другі інструмент, які стаіць асобна адзначыць, гэта інструмент Microsoft IISSEO. Гэта цалкам бясплатны магутных інструментаў ад кампаніі microsoft, які чамусьці не вельмі вялікая колькасць людзей выкарыстоўвае. Я ў асноўным гэта звязваю з тым, што ён досыць складана высвятляецца.

Гэта частка серверных прыкладанняў ад microsoft і не на ўсе сістэмы ён лёгка усталёўваецца. На некаторыя сістэмы усталёўваецца ў два кліку, на некаторых узнікаюць цяжкасці. У чым яго плюсы - ён абсалютна бясплатны. Вельмі магутная падтрымка рускай мовы, ну і большасць наогул моў, цалкам перакладзены. Вельмі шмат станоўчых водгукаў і мне таксама спадабаўся, знайшоў і выправіў шмат памылак.

Сам, калі шчыра, выдаткаваў нямала часу, каб ён запрацаваў. Спрашчу вам яго ўсталяванне. Спачатку спампоўваеце сам установачны файл, адпаведны вашай сістэме (x32-x64) - спампаваць . Спрабуеце запусціць і ўсталяваць, як звычайны ўсталёўшчык. Калі выдае такую ​​памылку: "Для ўстаноўкі Інструменты аптымізацыі IIS Search Engine ... патрабуецца IIS версіі 7.0 або больш позняй"


Тады спампоўваеце гэтую хрень па гэтай спасылцы і ўсталёўваеце яе. Калі яна выдае таксама памылку: "Тhe IIS management Console is not instaled, but it is requered for managing remote IIS Servers ..."

То заходзіце ў "Панэль кіравання" - "Выдаленне праграм" - злева "Уключэнне і адключэнне кампанентаў" - выбіраеце "Службы IIS", прастаўляецца галачкі і ціснеце "ок". Пасля абнаўлення зноў спрабуеце ўсталяваць "тую хрень" і пасля яе ўстаноўкі ўжо саму праграму Microsoft IISSEO.

Праграма дазваляе сканаваць сайты любога аб'ёму і яшчэ ў яе вельмі цікавы справаздачу пра памылкі, які ідэальна падыходзіць для пачаткоўцаў seo аптымізатараў, таму што ўсе ўсё памылкі ён дзеліць на тэхнічныя і seo памылкі. І кожную памылку яшчэ пазначае па ступені важнасці.

Прога проста не абмежаваная па магчымасцях, гэта значыць вы можаце сканаваць сайт і з дзесяткамі тысяч старонак. Адзіны мінус - працуе яна досыць доўга, то ёсць вялікі сайт вы можаце сканаваць некалькі гадзін, а то і цэлы дзень. Сайт у 600 старонак я прасканаваў за 6 хвілін.

Давайце паглядзім, як раз на прыкладзе microsoft toolkit, як выглядае такой аналізатар, што з яго можна атрымаць. Вось, уласна, сам інтэрфейс:

Мы запускаем аналіз, то ёсць паказваем адрас і запускаем.

Пасля чаго, мы атрымліваем дадзеныя, колькі было знойдзена старонак, колькі іх загружана, калі пачаўся аналіз, калі скончыўся і колькасць парушэнняў.

Ва ўкладцы "парушэнні" мы бачым, уласна, усе памылкі, якія выявіў аналізатар. Да прыкладу, адсутнасць атрыбуту alt ў тэгу img. То бок, не аптымізаваныя цалкам карцінкі. Пра тое, як іх аптымізаваць чытайце ў гэтым пасце .


Двайны клік на гэтую памылку і мы бачым, дзе ён знайшоў гэтую карцінку без атрыбуту alt, мы атрымліваем кароткае апісанне памылкі, нават ёсць рэкамендуемае дзеянне, што нам трэба зрабіць і самае галоўнае навошта і чаму.

Зверху мы бачым усё такія памылкі, іх поўны пералік. Мы можам перамыкацца паміж імі і праглядаць. Асобна варта адзначыць магчымасць перамыкацца паміж укладкамі, гэта значыць мы можам паглядзець па гэтай старонцы менавіта код, дзе знаходзіцца гэтая памылка.

Мы можам паглядзець адказ сервера па гэтай старонцы, мы можам прааналізаваць асобна гэтую старонку нават частотную табліцу. Табліцу слоў, табліцу фраз, гэта значыць у нас вялізныя магчымасці па аналізе гэтай старонкі з усіх бакоў. Гэта значыць давайце паглядзім яшчэ якія памылкі знайшоў нам гэты аналізатар.

адсутнічае description на старонцы вялікая колькасць табліцай стыляў. Шмат javascript. Старонка ўтрымлівае непрацуючыя спасылкі. Гэта значыць на старонцы дзесьці ёсць спасылкі? якія вядуць на іншую старонку, якая дае адказ сервера 404. І мы можам паглядзець, дзе гэтыя спасылкі ў кодзе - гэта вельмі зручна і хутка мы можам усё гэта выявіць.

Ёсць проста адзнакі аб інфармацыі, да прыкладу, 23 старонкі забаронена ў файле robots.txt. Гэта не памылка, гэта значыць яна адзначана проста як інфармацыя, што мы павінны звярнуць на гэта ўвагу. Мы можам паглядзець, якія канкрэтныя старонкі, каб пераканацца, што да гэтыя старонкі сапраўды забароненыя ў robots.txt і мы разумеем, што гэта правільна, што іх не трэба адкрываць.

Гэта значыць лішні раз пераправерыць свой robots.txt . Асобна варта адзначыць вкладочку "зьмест". Тут мы можам паглядзець, што ў нас паўтараецца, якія ў нас ёсць знешнія спасылкі, якія ў нас ёсць паўтараюцца назвы.

Гэта значыць па паўтаральным назвай мы лёгка можам выявіць дублі кантэнту. Ёсць пошук поўных дубляў, то бок, калі старонка цалкам адна адну паўтарае, то мы можам убачыць гэтыя самыя поўныя дублі і ўжо потым вырашыць, як мы можам выправіць гэтыя дублікаты і альбо зачыніць іх ад індэксацыі, альбо перанакіраваць, гэта значыць выкарыстоўваць прыдатны метад.

Асобна варта адзначыць функцыю "паўторнага сканавання". Гэта значыць, калі мы прасканавалі свой сайт, выправілі нейкія памылкі іх стала менш. Мы паўторна адпраўляем сайт на паўторнае сканаванне ў гэтай праграме і ў нас ёсць аўтаматычны справаздачу, у якім мы можам адправіць нашу старонку на паўторную праверку.

Пасля чаго мы можам выбраць некалькі справаздач і націснуць параўнаць вынікі. Параўнаць справаздачы і праграма аўтаматычна параўнае нам першы аналіз з другім аналізам і пакажа, якія памылкі былі ліквідаваны. Ці стала іх менш, якім чынам яны былі ліквідаваны і г.д.

Гэта дазваляе ў аўтаматычным рэжыме хутка правяраць ўкараненне гэтых правак, якія вы апісалі ў сваім тэхнічным заданні на аптымізацыю. То бок, банальна нейкіх базавых рэчаў.

Вы можаце экспартаваць усё гэта ў зручныя для вас фарматы. Калі вы працуеце з сайтам больш чым на сто старонак вельмі рэкамендую выкарыстоўвайце якія-небудзь аналізатары, інакш праца над сайтам можа вельмі моцна зацягнуцца.


Да зместа ↑

І напрыканцы ржачный SEO-прыкол)))


Да сустрэчы! Паспяваю ўсё і заўсёды на старонках блога Uspei.com

Дапамажы праекту - падпішыся на наш Яндекс.Дзен канал!

Гэта значыць на старонцы дзесьці ёсць спасылкі?