Анализировать структуру сайта на SEO

  1. # 1. Улучшите структуру ваших URL
  2. URL отображаются в результатах поиска
  3. # 2. Сделайте ваш сайт более удобным для навигации:
  4. Планируйте свою навигацию на основе вашей домашней страницы
  5. Обеспечьте больше удобства для пользователей, используя «Крошка» списки
  6. Разрешить возможность удаления части URL
  7. Подготовьте две карты сайта: одну для пользователей, другую для поисковых систем
  8. # 3. Эффективно используйте robots.txt
  9. Ограничения robots.txt:

Прежде чем увидеть это, если вы не имеете никакого представления о SEO, возможно, вам придется посмотреть наш предыдущий пост - SEO Введение а также

# 1. SEO Basic

Или, если вы знаете что-то о SEO, идите вперед.

# 1. Улучшите структуру ваших URL


Простые для понимания URL будут легко содержать информацию о содержании


Создание описательных категорий и имен файлов для документов на вашем веб-сайте может не только помочь вам лучше организовать ваш сайт, но и привести к лучшему сканированию ваших документов поисковыми системами. Кроме того, он может создавать более простые и дружественные URL-адреса для тех, кто хочет ссылаться на ваш контент. Посетителей могут пугать очень длинные и загадочные URL-адреса, содержащие мало узнаваемых слов.


URL-адреса, такие как –https: //www.example.com/floder1/12524/67849/7689bas.html.

может быть запутанным и недружественным. Пользователь не может легко понять, для чего эта страница.

URL-адреса, такие как - https://www.example.com/blog/seo-techniques.html

Пользователь может легко понять, для чего предназначена эта страница. Эта страница ясно показывает, что она содержит информацию о SEO.


URL отображаются в результатах поиска


Помните, что URL документа отображается как часть результатов поиска в Google, под заголовком и фрагментом документа. Как и заголовок и фрагмент, слова в URL-адресе в результатах поиска выделяются жирным шрифтом, если они появляются в запросе пользователя.

Как и заголовок и фрагмент, слова в URL-адресе в результатах поиска выделяются жирным шрифтом, если они появляются в запросе пользователя

Google хорошо умеет сканировать все типы структур URL, даже если они довольно сложные, но может помочь время, чтобы сделать ваши URL максимально простыми как для пользователей, так и для поисковых систем. Некоторые веб-мастера пытаются достичь этого, переписывая свои динамические URL-адреса в статические; Несмотря на то, что Google справляется с этим, мы хотели бы отметить, что это сложная процедура, и, если она сделана неправильно, может вызвать проблемы с сканированием вашего сайта. Чтобы узнать больше о хорошей структуре URL, мы рекомендуем эту страницу Справочного центра для веб-мастеров на создание удобных для Google URL.


ДЕЛАТЬ:


1. Используйте удобочитаемые URL-адреса: URL-адреса со словами, которые имеют отношение к содержанию и структуре вашего сайта, удобнее для посетителей, перемещающихся по сайту. Используйте целевое ключевое слово вместе с вашим URL, чтобы посетители лучше его запомнили и могли с большей готовностью ссылаться на них.

2. Создайте простую структуру каталогов: используйте структуру каталогов, которая хорошо организует ваш контент и позволяет посетителям легко узнать, где они находятся на вашем сайте.

3. Используйте 301 перенаправление : Сообщите Google об изменениях ваших URL, чтобы не потерять свой рейтинг.

4. Используйте канонический URL Избегайте штрафов за дублирование контента, указав поисковым системам предпочитаемый домен и предпочитаемые веб-страницы.

5. Добавьте мобильные URL-адреса в карты сайта: определите страницы, удобные для мобильных устройств, в файлах сайта, чтобы они имели более высокий рейтинг в результатах мобильного поиска.

6. Всегда используйте дефисы в URL: Google не читает подчеркивание. Так что будьте осторожны с этим.


ЗАПРЕЩАЕТСЯ:


1. Использование длинных URL с ненужными параметрами и идентификаторами сессии

2. Выбор общих имен страниц, таких как «page1.html».

3. Использование лишних ключевых слов, таких как «travel-guide-travel-guide-travelguide.html»

4. Имея глубокое вложение подкаталогов, таких как "... / dir1 / dir2 / dir3 / dir4 / dir5 / dir6 / page.html"

5. Использование имен каталогов, которые не имеют отношения к содержанию в них.

6. Наличие страниц из субдоменов и корневой каталог имеет доступ к тому же контенту.

например, "example.com/page.html" и "sub.example.com/page.html"

7. Использование нечетной прописной буквы URL - многие пользователи ожидают строчные URL-адреса и запоминают их лучше.

8. Использование подчеркивания в URL


# 2. Сделайте ваш сайт более удобным для навигации:

Навигация очень важна для поисковых систем

Навигация по сайту важна для того, чтобы помочь посетителям быстро найти нужный контент. Это также может помочь поисковым системам понять, какой контент веб-мастер считает важным. Хотя результаты поиска Google предоставляются на уровне страницы, Google также нравится понимать, какую роль играет страница в общей картине сайта.

Планируйте свою навигацию на основе вашей домашней страницы


Все сайты имеют домашнюю или «корневую» страницу, которая обычно является самой посещаемой страницей сайта и отправной точкой навигации для многих посетителей. Если на вашем сайте только несколько страниц, вам следует подумать о том, как посетители перейдут с общей страницы (вашей корневой страницы) на страницу, содержащую более конкретный контент.


Обеспечьте больше удобства для пользователей, используя «Крошка» списки

«Крошка» это ряд внутренних ссылок в верхней или нижней части страницы, который позволяет посетителям быстро вернуться к предыдущему разделу или корневой странице.


Разрешить возможность удаления части URL

Подумайте, что происходит, когда пользователь удаляет часть вашего URL-адреса. Некоторые пользователи могут перемещаться по вашему сайту странным образом, и вам следует ожидать этого. Например, вместо использования «Крошка» ссылки на странице, пользователь может оставить часть URL в надежде найти более общий контент. Он или она может посещать "http://www.example.com/india/2010/upcoming-movie-list.html", но затем ввести "http://www.example.com/india/2010/", в в адресной строке браузера, полагая, что здесь будут показаны все индийские фильмы 2010 года. Готов ли ваш сайт к показу контента в этой ситуации или он даст пользователю Ошибка 404 (ошибка "страница не найдена")?


Подготовьте две карты сайта: одну для пользователей, другую для поисковых систем


Карта сайта (в нижнем регистре) - это простая страница на вашем сайте, которая отображает структуру вашего сайта и обычно состоит из иерархического списка страниц вашего сайта. Посетители могут посетить эту страницу, если у них возникают проблемы с поиском страниц на вашем сайте. Хотя поисковые системы также посещают эту страницу, получая хорошее покрытие страниц вашего сайта, они в основном предназначены для посетителей-людей.

Хотя поисковые системы также посещают эту страницу, получая хорошее покрытие страниц вашего сайта, они в основном предназначены для посетителей-людей

Файл XML Sitemap (в верхнем регистре), который вы можете отправить с помощью Инструментов Google для веб-мастеров, облегчает Google поиск страниц на вашем сайте. Использование файла Sitemap также является одним из способов (хотя и не гарантируется) сообщить Google, какую версию URL вы предпочитаете в качестве канонической (например, «http://exmple.com/» или «http: //www.exmple»). .com / "; подробнее о том, что является предпочтительным доменом). Google помог создать сценарий Sitemap Generator Script, который поможет вам создать файл Sitemap для вашего сайта. Чтобы узнать больше о файлах Sitemap, справочный центр для веб-мастеров предоставляет полезное руководство по файлам Sitemap.

http://www.exmple.com/daily0.8http://www.exmple.com/india/http://www.exmple.com/india/2008/http://www.exmple.com/india/ 2009 / HTTP: //www.exmple.com/india/2010/

«Для навигации акцент должен быть сделан на простоте и удобстве использования!»


ДЕЛАТЬ:


1. Облегчите пользователям переход от общего контента к более конкретному контенту, который они хотят видеть на вашем сайте. Добавляйте навигационные страницы, когда это имеет смысл, и эффективно внедряйте их в структуру внутренних ссылок.

2. Управление большей частью навигации по страницам на вашем сайте с помощью текстовых ссылок облегчает поисковым системам сканирование и понимание вашего сайта. Многие пользователи также предпочитают это другим подходам, особенно на некоторых устройствах, которые могут не поддерживать Flash или JavaScript.

3. Простая страница карты сайта со ссылками на все страницы или самые важные страницы (если у вас есть сотни или тысячи) на вашем сайте может быть полезной. Создание файла XML Sitemap для вашего сайта гарантирует, что поисковые системы обнаружат страницы на вашем сайте.

4. Иногда пользователи переходят на страницу, которой нет на вашем сайте, либо переходя по неработающей ссылке, либо вводя неправильный URL-адрес. Наличие пользовательской страницы 404, которая любезно направляет пользователей обратно на рабочую страницу на вашем сайте, может значительно улучшить работу пользователя. Ваша страница 404, вероятно, должна иметь ссылку на корневую страницу, а также ссылки на популярный или связанный контент на вашем сайте. Google предоставляет виджет 404, который вы можете встроить в свою страницу 404, чтобы автоматически заполнить ее многими полезными функциями. Вы также можете использовать Инструменты Google для веб-мастеров, чтобы найти источники URL-адресов, которые вызывают ошибки "not found".


ЗАПРЕЩАЕТСЯ:


1. Создание сложных сетей навигационных ссылок, например, связывание каждой страницы вашего сайта с любой другой страницей.

2. Перебор с нарезкой и нарезкой кубиками вашего контента (так, чтобы он занимал двадцать кликов)

3. Наличие навигации, основанной исключительно на раскрывающихся меню, изображениях или анимации - многие, но не все, поисковые системы могут обнаруживать такие ссылки на сайте, но если пользователь может получить доступ ко всем страницам сайта через обычные текстовые ссылки, это улучшит доступность вашего сайта; подробнее о том, как Google работает с нетекстовыми файлами.

4. Пусть ваша HTML-карта сайта устарела из-за неработающих ссылок.

5. Создание HTML-карты сайта, которая просто перечисляет страницы без их организации, например, по теме.

6. Разрешить индексирование ваших 404 страниц в поисковых системах (убедитесь, что ваш веб-сервер настроен на выдачу кода состояния 404 HTTP при запросе несуществующих страниц).

7. Предоставление только расплывчатого сообщения, такого как «Не найдено», «404» или вообще без страницы 404.

8. Использование дизайна для ваших 404 страниц, который не соответствует остальной части вашего сайта.


# 3. Эффективно используйте robots.txt

robots.txt:

Файл Robots.txt в основном представляет собой текстовый файл, который содержит некоторые инструкции для веб-сканеров. Например, Googlebot - робот для веб-сканирования для Google, а Bingbot - робот для веб-сканирования для Bing.

Этот робот собирает документы из Интернета для создания поискового индекса для Google и Bing.

Здесь роль robots.txtfile состоит в том, чтобы предотвратить сканирование тех частей (файлов или страниц) вашего сайта, к которым сканеры поисковых систем не хотят получать доступ.

Примечание. Вы не должны использовать robots.txt как средство, чтобы скрыть ваши важные веб-страницы от результатов поиска Google.

Это связано с тем, что другие страницы могут указывать (ссылаться) на вашу страницу, и ваша страница может индексироваться таким образом, избегая файла robots.txtfile. Если вы хотите заблокировать свою страницу из результатов поиска, используйте другой метод, такой как защита паролем или теги noindex.

Тогда в чем польза robots.txtfile ??

robots.txts следует использовать только для контроля сканирования трафика. Если робот Googlebot сканирует страницы такого типа, которые не связаны с пользователем или созданы только для целей тестирования, тогда ваш сервер будет перегружен сканером Google, что означает потерю бюджета сканирования.

Кроме того, robots.txt не позволяет файлам изображений появляться в результатах поиска Google. Но это не мешает другим страницам или пользователям ссылаться на ваше изображение.

Однако не стоит блокировать тот тип файла (стиль, сценарий) или изображение, который необходим для понимания вашей полезной веб-страницы.

Однако не стоит блокировать тот тип файла (стиль, сценарий) или изображение, который необходим для понимания вашей полезной веб-страницы

Ограничения robots.txt:

Прежде чем создавать свой файл robots.txt, вы должны знать о рисках, связанных с этим методом блокировки URL-адресов. Иногда вам может понадобиться рассмотреть другие механизмы, обеспечивающие невозможность поиска ваших URL-адресов в Интернете.

# 1. Инструкции в файле robots.txtfiles не могут навязывать поведение сканера вашему сайту; вместо этого эти инструкции действуют как директивы для сканеров, обращающихся к вашему сайту. Хотя робот Googlebot и другие уважаемые сканеры подчиняются инструкциям в файле robots.txt, другие сканеры могут этого не делать. Поэтому, если вы хотите защитить информацию от сканеров, лучше использовать другие методы блокировки, такие как защита личных файлов на вашем сервере.

# 2. Хотя респектабельные веб-сканеры следуют директивам в файле robots.txt, каждый сканер может интерпретировать директивы по-своему. Вы должны знать правильный синтаксис для обращения к различным веб-сканерам, так как некоторые могут не понимать определенные инструкции.

# 3. Хотя Google не будет сканировать или индексировать контент, заблокированный robots.txt, мы все равно можем найти и проиндексировать запрещенный URL из других мест в Интернете. В результате URL-адрес и, возможно, другая общедоступная информация, такая как якорный текст в ссылках на сайт, все еще могут появляться в результатах поиска Google. Вы можете полностью запретить отображение своего URL-адреса в результатах поиска Google с помощью других методов блокировки URL-адресов, таких как защита паролем файлов на вашем сервере или использование метатега noindex или заголовка ответа.

Если робот хочет посетить URL веб-сайта, скажите «http://www.example.com/welcome.html». Прежде чем он это сделает, он запускает проверки для «http://www.example.com/robots.txt» и находит:

//robots.txt говорит ... никогда не заходите на любую страницу этого сайта User-agent: * Disallow: /

«User-agent: *» означает, что этот раздел относится ко всем роботам. Если это только для поисковой системы Google, замените * на Googlebot. "Disallow: /" говорит роботу, что он не должен посещать какие-либо страницы на сайте.

//robots.txt говорит ... посетить все страницы этого сайта User-agent: * Disallow:

Этот пример дает полное разрешение на сканирование всех страниц этого сайта.

//robots.txt говорит, что никогда не посещайте папку a & b. Пользовательский агент: * Disallow: / a / Disallow: / b /

Этот пример показывает, что роботы не должны посещать файл a и файл b. Теперь я думаю, что вы можете создать свой собственный robots.txtfile как ваше требование.

Поместите robots.txtfile в корневую папку

Давайте поговорим о метатеге noindex,

Метатег robots позволяет вам использовать детальный, специфичный для страницы подход к управлению тем, как отдельная страница должна быть проиндексирована и предоставлена ​​пользователям в результатах поиска. Поместите метатег robots в раздел <head> данной страницы, например так:

(...)

Txtfile ?