11 быстрых практических советов для Screaming Frog для SEO

  1. Что же все-таки делает Кричащая Лягушка?
  2. # 1 Экспортируйте список всех ваших URL
  3. # 2 Разбитые левые / левые перенаправления
  4. # 3 Экспорт всех внутренних ссылок> все неработающие ссылки в одном файле
  5. # 4 цепи перенаправления
  6. # 5 Проверьте список старых URL при повторном запуске
  7. # 6 канонических
  8. # 7 Совет Дана. Создание или сканирование XML-файла Sitemap.
  9. Вот немецкий перевод, включая фотографии:
  10. # 8 Crawl Javascript
  11. # 9 Snippets Предварительный просмотр и настройки
  12. # 10 Advanced: выборочное извлечение
  13. # 11 Сканирование защищенных паролем областей
  14. Это все? Нет!

SEO-паук Screaming Frog стал неотъемлемой частью нашей повседневной работы. Это мощный инструмент - не только для чистокровных оптимизаторов, но и для всех онлайн-маркетологов. Сегодня я покажу вам 11 быстрых практических советов о том, как улучшить ваш сайт с помощью Screaming Frog.

Прямо к подсказкам:
Прямо к подсказкам:

# 1 - экспортируйте все ваши URL

№ 2 - Неработающие ссылки: отдельные отчеты

# 3 - Экспорт всех ссылок> Собранные неработающие ссылки

№ 4 - Цепочки перенаправления

# 5 - Проверьте перезагрузить список старых URL

№ 6 - канонические

# 7 - Совет Дэна: создание или сканирование XML-файла Sitemap

# 8 - Сканирование Javascript

# 9 - Snippets Предварительный просмотр и настройки

№ 10 - Дополнительно: выборочное извлечение

№ 11 - сканировать защищенные паролем области

Что же все-таки делает Кричащая Лягушка?

SEO Spider от Screaming Frog это инструмент, с помощью которого вы можете сканировать веб-страницы. Кричащая Лягушка посылает своего бота и проходит через вашу страницу. Он переходит по всем ссылкам, называет каждый URL и собирает всю информацию о них. Например, после сканирования вы получите информацию о данных RobotsMeta, кодах состояния, фрагментах, размерах файлов, канонических ссылках, hreflang и многом другом. В бесплатной версии можно сканировать до 500 URL. Если вы хотите больше сканировать, вам нужна лицензия, которая стоит 149 фунтов стерлингов в год.

Чем больше ваша страница, тем важнее контролировать сканирование. Почему это важно и как вы это делаете, Феликс в своем блоге Crawlingsteuerung объяснил.

Перед сканированием также следует тщательно продумать, что вы хотите сканировать, например, нужно ли сканировать изображения? Если нет, предварительно отключите сканирование изображений в разделе «Конфигурация». Например, вы можете включить или исключить определенные папки в вашем обходе. Однако то, как вы настраиваете свое сканирование и что вы можете настроить, не должно становиться частью этого сообщения в блоге. Тем не менее, вы можете прочитать это в самой Screaming Frog очень подробно: Конфигурация руководства пользователя , Вместо этого, мой пост в блоге показывает вам 11 советов из нашей повседневной жизни, которые вы можете имитировать напрямую. Большинство функций также предлагают вам ryte , но я нахожу эти специальные 11 вариантов использования более удобными в Screaming Frog SEO Spider. У RYTE есть и другие сильные стороны поэтому мы обычно используем оба инструмента параллельно.

# 1 Экспортируйте список всех ваших URL

Мой первый совет звучит довольно банально, но, на мой взгляд, одна из самых важных особенностей Screaming Frog. Вы можете экспортировать все ваши URL:

Затем вы можете сортировать по URL и прокручивать список один раз. Здесь вы получаете а) уже чувство количества ваших URL и б) вы уже заметили здесь "странные" URL, если они встречаются в большем количестве. Например, это может быть большое количество URL-адресов, которые генерируются системой, но не должны создаваться вообще, как в следующем случае, когда несколько тысяч (!) URL-адресов были созданы с помощью подсказки cookie:


# 2 Разбитые левые / левые перенаправления

С помощью Screaming Frog вы также можете экспортировать внутренние ссылки на 404 страницы или ссылки на перенаправления одним щелчком мыши. Вы можете найти эту опцию в разделе «Массовый экспорт»> «Коды ответов». Здесь вы можете экспортировать неработающие ссылки, отсортированные по их коду статуса, в Excel:

Затем вы получите список всех входящих ссылок, которые возвращают код состояния 3xx. Затем я рекомендую вам разделить ссылки на всю страницу и отдельные ссылки, отсортировав их по тексту ссылки и цели ссылки - все, что здесь соответствует и встречается более 10 раз, обычно является ссылками на всю страницу и может быть исправлено вместе. Вы можете быстро идентифицировать и исправить все ошибки в отдельных ссылках через источник ссылки и текст ссылки.

Недостатком является то, что вы должны сделать свой собственный экспорт для каждого типа неработающей ссылки, преимущество в том, что отдельные отчеты являются четкими и небольшими. Но есть и другой способ выявления неработающих ссылок:

# 3 Экспорт всех внутренних ссылок> все неработающие ссылки в одном файле

Вы просто запускаете этот метод через «Bulk Export»> «All Inlinks». С его помощью вы экспортируете все входящие ссылки с вашей стороны. Затем вы можете отфильтровать и удалить все 200 с. Все страницы с кодом состояния, отличным от 200, остаются:

Это означает, что теперь вам нужно работать с большим объемом данных, чем в случае с подсказкой 2, и немного больше настраивать в Excel, но тогда у вас есть все неработающие ссылки в файле, что лично мне кажется более удобным. В конечном счете, выбор вкуса зависит от вкуса.

Конечно, с отчетом All-Inlinks возможно совершенно другое. Например, вы можете сравнить ссылки на ваши страницы или один Gephi анализ начать.

# 4 цепи перенаправления

Один из моих фаворитов - это отчет «Цепочки перенаправления» - и, кстати, также доклад Дана Шарпа, одного из основателей Screaming Frog, как он недавно сказал мне:

После экспорта вы получите файл Excel, в котором будет указан исходный код и список всех перенаправлений, а также их номер. Кроме того, электронная таблица Excel показывает, есть ли какие-либо циклы:

Чтобы иметь возможность работать с ним немедленно, я вставляю новый второй столбец с целевым адресом перенаправления. Здесь я всегда копирую последний URL перенаправления - это немного фильтрации и копирования. Но если вы всегда фильтруете «Количество перенаправлений», а затем копируете последний URL-адрес перенаправления на передний план, он ограничен. Но, @Dan, если вы прочитаете это: это будет отличная возможность в будущем! 😉

Важное замечание: Если цепочка пересылки заканчивается в 4xx, вы должны выбрать другое целевое назначение пересылки или, в качестве альтернативы, удалить ссылку.

# 5 Проверьте список старых URL при повторном запуске

При повторном запуске режим списка в Screaming Frog является особой функцией. Здесь вы можете вставить список старых URL-адресов предыдущего сканирования и просканировать их. Для этого перейдите в верхнюю часть меню «Режим»> «Список». А потом на «Загрузить». С Sreaming Frog особенно удобно то, что теперь вы можете загружать файл, а также просто копировать и вставлять свой список или просто сканировать карту сайта XML.

С обходом списка, вы можете сразу увидеть, все ли URL были перенаправлены правильно после повторного запуска. Важно: Опять же, вы должны снова сделать настройку, чтобы бот всегда следовал всем перенаправлениям. Конечно, это не все, что вы должны учитывать при перезапуске, но есть отдельный Blogpost, включая повторный контрольный список ,

# 6 канонических

Что касается Canonicals, мне особенно нравятся возможности отображения в Screaming Frog даже с правой стороны. Здесь вы можете сразу увидеть, сколько URL канонизировано, а сколько не имеет канонического тега. Вы также можете нажать на отдельные точки, а затем удобно экспортировать в Excel.


# 7 Совет Дана. Создание или сканирование XML-файла Sitemap.

Вы можете не только легко создать карту сайта XML с помощью Screaming Frog, но вы также можете сканировать действующую карту сайта, например, чтобы увидеть, содержит ли она поврежденные страницы. Дэн Шарп, соучредитель Screaming Frog, объясняет, как это работает:

« Легко нам нравится чистить XML Sitemaps « Легко нам нравится чистить XML Sitemaps. Если карта сайта XML уже активна, переключитесь в режим списка (Mode> List) и выберите «Download Sitemap» или «Download Sitemap Index» и введите URL-адрес. Не забудьте зайти в «Конфигурация»> «Robots.txt»> «Настройки» и снять флажок «Игнорировать robots.txt», чтобы увидеть, запрещены ли какие-либо URL-адреса в XML-карте сайта. SEO Spider хочет сканировать URL-адреса непосредственно из действующей карты сайта. Затем вы можете проверить все, что не является ответом 200, и найти URL-адреса, которые заблокированы robots.txt, canonicalised или noindex и не должны быть там.

Вы даже можете сгенерировать XML Sitemap с помощью SEO Spider, который автоматически удалит эти URL для вас. Если XML Sitemap еще не запущен, но у вас есть файл, просто перейдите в раздел «Мода»> «Список» и выберите из файла и выберите файлы типа .xml для загрузки и сканирования. "

Спасибо Дэну!

Вот немецкий перевод, включая фотографии:

«Простой [Quick Win], который нам нравится, это тот, который вы можете использовать для очистки XML Sitemaps. Если XML-карта сайта уже активна, вы можете изменить режим на «Список» («Режим»> «Список»), а затем выбрать «Загрузить файл Sitemap» или «Загрузить индекс карты сайта» и введите URL-адрес:

Перед сканированием также необходимо снять флажок рядом с «Конфигурация»> «Robots.txt»> «Настройки» в «Игнорировать robots.txt»:

Теперь вы можете увидеть, содержит ли ваша карта сайта URL-адреса, заблокированные файлом robots.txt. SEO Spider теперь будет сканировать страницы непосредственно из реальной карты сайта. Затем вы можете проверить, содержит ли сканирование страницы, которые не возвращают код состояния 200 (без ответа, 3XX, 4XX, 5XX и т. Д.) Или заблокированы файлом robots.xt, ссылка на который на канонической ссылке указывает на другой URL установлены в "noindex" или по какой-то другой причине не должны быть в карте сайта.

Затем вы можете использовать Screaming Frog SEO Spider для создания XML-карты сайта. Эти URL автоматически удаляются. Если ваша карта сайта еще не запущена, но у вас уже есть файл, просто запустите сканирование, выбрав «Файлы> Тип» в «.xml» через «Режим»> «Список»> «Из файла». Загрузить файл Sitemap.

# 8 Crawl Javascript

Еще одна действительно полезная функция - возможность сканировать JavaScript. Но будьте осторожны: если вы сканируете JavaScript, ваше сканирование будет сильно замедляться. Не следует слепо всегда сканировать JavaScript, но всегда используйте эту функцию только осознанно.

Чтобы сканировать Javascript, вы должны изменить настройку «Рендеринг в JavaScript» в «Конфигурация»> «Паук»> Рендеринг:

Чтобы сканировать Javascript, вы должны изменить настройку «Рендеринг в JavaScript» в «Конфигурация»> «Паук»> Рендеринг:

Кроме того, вы должны поставить хук под «Конфигурация»> «Изображения паука», CSS и JS, чтобы ресурсы также отображались:

Кроме того, вы должны поставить хук под «Конфигурация»> «Изображения паука», CSS и JS, чтобы ресурсы также отображались:

Затем вы можете нажать на отображаемую ссылку и посмотреть под «Rendered Page» ниже:

Затем вы можете нажать на отображаемую ссылку и посмотреть под «Rendered Page» ниже:

Вы можете найти больше информации о JavaScript Crawl в блоге Screamingfrog.co.uk

# 9 Snippets Предварительный просмотр и настройки

Snippetoptimierung является важной частью SEO. По этой причине я также ценю в SEO Spider мой любимый пиксель и длину символа в названии и описании, которые можно отрегулировать, чтобы затем сразу определить слишком длинные или слишком короткие фрагменты. В этом примере я установил длину заголовка в 569 пикселей и количество символов описания в 135, потому что это содержит дату и, следовательно, мне доступно меньше места. Вы можете найти этот параметр в разделе «Конфигурация»> «Паук»> «Настройки»:

Вы не только видите длину заголовка в сводке сканирования, но также можете фильтровать в правой боковой панели слишком длинные, слишком короткие, двойные или отсутствующие значения, в то время как Screaming Frog следует моим ранее установленным предпочтениям:

Это еще не все! У вас есть возможность просмотреть фрагменты просканированных URL-адресов в Screaming Frog. Вы можете найти кнопку в нижней панели под SERP Preview:

Вы можете редактировать фрагмент напрямую. Справа от предварительного просмотра подсчитываются не только символы и пиксели, но вы также можете изменить устройство, добавив расширенные фрагменты или префиксы описания:

Единственный недостаток: на данный момент ранее установленные настройки, к сожалению, не принимаются!

# 10 Advanced: выборочное извлечение

Особенно полезно, если вы хотите проверить специальные атрибуты страницы, это функция «Custom Extraction» в Screaming Frogs SEO Spiders. С его помощью вы можете нацеливать элементы через класс CSS, Xpath или регулярные выражения.

Позвольте мне показать вам пример: Предположим, я хочу знать, какое первое «связанное сообщение» появляется под секретным сообщением в блоге, и я также хотел бы, чтобы был автор этого сообщения.

Первое, что я делаю, это открываю запись в блоге в Google Chrome и открываю Инструменты разработчика Chrome. Теперь я выбираю элемент (2) с помощью селектора (1). Затем я выбираю его в HTML правой кнопкой мыши (3) и копирую Xpath (4):

Затем я переключаюсь обратно на «Кричащую лягушку» и вставляю ее в «Конфигурация»> «Пользовательский»> «Извлечение». Теперь я могу назвать свой экстрактор, чтобы позже найти правильный столбец в сканировании. Затем я выбираю XPath в качестве метода извлечения:

Я повторяю то же самое для моей первой связанной статьи, а затем начинаю сканирование. Тогда я могу искать столбцы и получить свой результат:

Не пропустите больше сообщений: информационный бюллетень в интернет-маркетинге

Вам нравится этот пост в блоге? Если вы хотите регулярно узнавать о последних тенденциях в онлайн-маркетинге, подпишитесь на нашу рассылку. Нам доверяют более 10000 подписчиков.

Подпишитесь сейчас

Подпишитесь сейчас

Феликс является автором просканированной статьи, и первый подобный пост - Джулиана Видео по оптимизации фрагмента ,

Совет:

Медленное время загрузки может помешать Screaming Frog извлекать весь пользовательский контент. Вы можете обойти эту проблему, уменьшив скорость сканирования паука. Вы можете прочитать об этом подробнее Сообщение в блоге от perfomics читать. Также объясняется, как извлекать элементы на основе их сцепленных CSS-классов. Это полезно, например, если у вас очень медленная загрузка страниц с большим количеством контента или XPath не уникален.

# 11 Сканирование защищенных паролем областей

Для повторного запуска особенно полезно иметь возможность сканировать защищенные паролем области. Для этого запустите сканирование в тестовой среде в обычном режиме. Сразу после этого, SEO-Spider запрашивает у вас данные доступа:

Как только вы введете их, Screaming Frog сканирует вашу страницу. Кстати, также можно сканировать страницы, защищенные веб-формой, например частные страницы WordPress. Для этого вы можете ввести данные для входа в разделе «Конфигурация»> «Аутентификация»:

Но будьте осторожны! Вы разрешаете «Кричащей лягушке» входить в систему: затем он следует по каждой ссылке, которую находит, - если он вошел как администратор, а также в серверной части.

Поэтому лучше всего создать отдельную учетную запись для Screaming Frog, которая имеет доступ только для чтения. Кроме того, вы должны исключить определенные области, такие как wp-admin в WordPress. В противном случае может случиться так, что SEO Spider создает новые сообщения или удаляет старые сообщения. В тесте Screaming Frog бот не только установил новую тему в течение получаса, но также установил 108 плагинов и активировал 8 из них. Поэтому я призываю вас, все другие правила безопасности на Кричащую Лягушку читать заранее, если вы хотите использовать эту функцию.

Это все? Нет!

Конечно, Sreaming Frog SEO Spider может сделать гораздо больше, чем эти 11 вариантов использования. Например, он может сообщать обо всех изображениях без тега ALT, экспортировать все ошибки Canonical или выявлять ошибки hreflang одним щелчком мыши. Вы также можете проверить все тексты ссылок с ним и около 1000 других вещей. Вы уже используете Screaming Frog SEO Spider? У вас еще есть практическое применение? Если так, то я рад, если вы оставите это в комментариях!

Изображение на обложке: © kikkerdirk / istock.com

запомнить

запомнить

Тебе нужна помощь? Вы ищете компетентное, гибкое и надежное агентство онлайн-маркетинга? Мы с нетерпением ждем вашего необязательного запроса.

Что же все-таки делает Кричащая Лягушка?
Перед сканированием также следует тщательно продумать, что вы хотите сканировать, например, нужно ли сканировать изображения?
Это все?
Вы уже используете Screaming Frog SEO Spider?
У вас еще есть практическое применение?
Вы ищете компетентное, гибкое и надежное агентство онлайн-маркетинга?