Bezpłatne analizy serwisów SEO z instrukcjami

  1. Krzycząca żaba SEO Spider
  2. Microsoft IISSEO
  3. I wreszcie zabawny żart SEO)))

Witajcie, drodzy czytelnicy strony Uspei.com. Ponieważ praca nad indeksowaniem i optymalizacją witryny często wiąże się z analizowaniem bardzo dużej ilości danych, zalecam zautomatyzowanie jej, przynajmniej na etapie audytu, czyli analizowanie witryny lub witryny klientów.

Po pierwsze, możesz zautomatyzować dostępność i zgodność ze wszystkimi podstawowe znaczniki html : tytuł, opis, h1-h6 itd. Możemy to sprawdzić automatycznie za pomocą specjalnych programów. Ponadto takie programy pozwalają znaleźć i duplikat treści czyli strony, które się powtarzają.

Powiedzieliśmy, że powielona treść musi być przekierowana w zależności od sytuacji lub zamknięta przed indeksowaniem, lub po prostu usunięta, w zależności od tego, jak ten duplikat został utworzony.

Przydatne jest również sprawdzenie witryny pod kątem obecności nieinformacyjnych stron. Zasadniczo wypłacane są wszystkie potężne narzędzia do kontroli SEO . Ale wciąż istnieje kilka narzędzi w otwartym wolnym dostępie, z których można korzystać, nie płacąc za te narzędzia.

Powrót do indeksu ↑

Krzycząca żaba SEO Spider

Pierwszym bardzo popularnym narzędziem jest narzędzie. Krzycząca żaba SEO Spider . Zasadniczo jest płatny, ale jego wersja demo (czyli wersja darmowa ) w pełni działa na stronach do 500 stron. Jeśli Twoja witryna ma do 500 stron, to znaczy jest mała, możesz pobrać tego pająka do czyszczenia żab.

Jest to aplikacja komputerowa, instalujesz ją na swoim komputerze, podajesz adres swojej witryny, skanujesz ją i dajesz raport na swoich stronach. Na których stronach znajdują się nagłówki, na których znajdują się tagi, jakie są te tagi, czy są jakieś strony, które nie działają, to znaczy dają 404 odpowiedzi. Możesz również szukać duplikatów.

Powrót do indeksu ↑

Microsoft IISSEO

Drugim narzędziem, które należy odnotować oddzielnie, jest narzędzie Microsoft IISSEO. Jest to całkowicie darmowe narzędzie POWERFUL firmy microsoft, które z jakiegoś powodu nie korzysta z dużej liczby osób. Głównie kojarzę to z faktem, że instalacja jest dość trudna.

Jest to część aplikacji serwerowych firmy Microsoft i nie jest łatwa do zainstalowania na wszystkich systemach. W niektórych systemach jest instalowany za pomocą dwóch kliknięć, w niektórych występują trudności. Jakie są jego zalety - jest całkowicie darmowy . Bardzo potężne wsparcie dla języka rosyjskiego, dobrze i ogólnie dla większości języków, w pełni przetłumaczone. Dużo pozytywnych opinii i podobało mi się, znalazłem i naprawiłem wiele błędów.

Sam szczerze poświęcił dużo czasu, aby to zadziałało. Uprość instalację. Najpierw pobierz plik instalacyjny swojego systemu (x32-x64) - pobierz . Spróbuj uruchomić i zainstalować jako zwykły instalator. Jeśli pojawi się ten błąd: „Instalowanie narzędzi optymalizacji wyszukiwarki IIS ... wymaga usług IIS w wersji 7.0 lub nowszej”


Następnie pobierz to bzdury odniesienie i zainstaluj go. Jeśli wystąpi również błąd: „Konsola zarządzania IIS nie jest zainstalowana, ale jest wymagana do zarządzania zdalnymi serwerami IIS ...”

Następnie przejdź do „Panelu sterowania” - „Odinstaluj programy” - po lewej stronie „Włącz / wyłącz komponenty” - wybierz „Usługi IIS”, zaznacz i kliknij „OK”. Po uaktualnieniu spróbuj ponownie zainstalować „ten gówno” i po zainstalowaniu go sam program Microsoft IISSEO.

Program pozwala skanować witryny o dowolnej wielkości, a także zawiera bardzo ciekawy raport błędów, który jest idealny dla początkujących optymalizatorów SEO, ponieważ dzieli wszystkie błędy na błędy techniczne i seo. I każdy błąd jest nadal oznaczany w kolejności ważności.

Program po prostu nie jest ograniczony możliwościami, to znaczy, że możesz skanować witrynę z dziesiątkami tysięcy stron. Jedyną wadą jest to, że działa wystarczająco długo, tzn. Można skanować dużą stronę internetową przez kilka godzin, a nawet cały dzień. Zeskanowałem 600 stron w ciągu 6 minut.

Zobaczmy, na przykładzie zestawu narzędzi microsoft, jak wygląda taki analizator, który można z niego uzyskać. Oto sam interfejs:

Przeprowadzamy analizę, czyli określamy adres i uruchamiamy.

Następnie otrzymujemy dane, ile stron znaleziono, ile załadowano, kiedy rozpoczęto analizę, kiedy liczba naruszeń się skończyła.

W zakładce „naruszenia” widzimy w rzeczywistości wszystkie błędy, które wykrył analizator. Na przykład brak atrybutu alt w znaczniku img. To nie jest w pełni zoptymalizowane zdjęcia. Przeczytaj, jak je zoptymalizować. ten post .


Kliknij dwukrotnie ten błąd i zobaczymy, gdzie znalazł ten obraz bez atrybutu alt, otrzymujemy krótki opis błędu, jest nawet zalecane działanie, co musimy zrobić i co najważniejsze, dlaczego i dlaczego.

Z góry widzimy wszystkie takie błędy, ich pełną listę. Możemy przełączać się między nimi i wyświetlać. Osobno warto zauważyć możliwość przełączania się między kartami, to znaczy, że możemy spojrzeć na tę stronę dokładnie na kod, w którym znajduje się ten błąd.

Możemy zobaczyć odpowiedź serwera na tę stronę, możemy przeanalizować tę stronę nawet osobno. Tabela słów, tabela zwrotów, czyli mamy świetną okazję do przeanalizowania tej strony ze wszystkich stron. To znaczy, zobaczmy, jakie inne błędy znalazł nam ten analizator.

Nieobecny opis Na stronie duża liczba stylów tabel. Wiele javascript. Strona zawiera uszkodzone linki. Czyli gdzieś na stronie są linki? co prowadzi do kolejnej strony, która daje odpowiedź serwera 404. I widzimy, gdzie te linki znajdują się w kodzie - jest to bardzo wygodne i możemy szybko to wszystko wykryć.

Są tylko notatki na temat informacji, na przykład 23 stron jest zabronionych w pliku robots.txt. To nie jest błąd, to znaczy jest po prostu oznaczony jako informacja, na którą powinniśmy zwrócić uwagę. Możemy sprawdzić, które strony, aby upewnić się, że zanim te strony są naprawdę zabronione w robots.txt i rozumiemy, że jest to poprawne, nie trzeba ich otwierać.

To jest znowu sprawdź ponownie plik robots.txt . Osobno warto zauważyć zakładkę „treść”. Tutaj możemy zobaczyć, co powtórzyliśmy, jakie mamy linki zewnętrzne, jakie mamy powtarzające się nazwy.

To znaczy, powtarzając nazwę, możemy łatwo znaleźć duplikaty treści. Poszukiwane są kompletne duplikaty, to znaczy, jeśli strona powtarza się całkowicie, wtedy możemy zobaczyć te najbardziej kompletne duplikaty, a następnie zdecydować, w jaki sposób możemy naprawić te duplikaty i albo zamknąć je z indeksowania lub przekierowania, czyli użyć odpowiedniej metody.

Osobno warto zwrócić uwagę na funkcję „rescan”. To znaczy, gdy skanowaliśmy witrynę, poprawiliśmy niektóre błędy, stały się one mniej. Ponownie wysyłamy stronę w celu ponownego skanowania tego programu i mamy automatyczny raport, w którym możemy wysłać naszą stronę do ponownego sprawdzenia.

Następnie możemy wybrać kilka raportów i kliknąć porównaj wyniki. Porównaj raporty, a program automatycznie porówna nas z pierwszą analizą z drugą analizą i pokaże, które błędy zostały naprawione. Czy stały się mniejsze, jak zostały wyeliminowane itp.?

Pozwala to automatycznie szybko zweryfikować implementację tych zmian, które opisano w specyfikacji optymalizacji. To banalne kilka podstawowych rzeczy.

Możesz wyeksportować to wszystko w wygodnych dla Ciebie formatach. Jeśli pracujesz z witryną dłuższą niż sto stron, bardzo polecam korzystanie z dowolnych analizatorów, w przeciwnym razie praca na stronie może być bardzo długa.


Powrót do indeksu ↑

I wreszcie zabawny żart SEO)))


Do zobaczenia wkrótce! Zrób wszystko i zawsze na stronach bloga Uspei.com

Pomóż projektowi - zapisz się na nasz kanał Yandex.DZen!

Czyli gdzieś na stronie są linki?