Отрицательный SEO без обратных ссылок? Тематическое исследование

  1. За рамками обратных ссылок
  2. Саботированные серверы (но не DDoS)
  3. Поддельный ужасный пользовательский опыт
  4. Этого не должно быть
  5. Так что же случилось? Это была просто случайность? Или это был отрицательный SEO?
  6. Тестирование негативного SEO на себе
  7. Жертва
  8. Инструмент:
  9. Вердикт:
  10. Новые ранжирующие сигналы создают опасность для SEO
  11. Опыт пользователя - сильный сигнал
  12. Безлицензионный Отрицательный SEO
  13. Отрицательный SEO без ссылок привлекателен по шести причинам:

Примечание: многое изменилось с тех пор, как я написал эту статью в 2014 году. Перед прочтением этого примера я настоятельно рекомендую мой гостевой пост SearchEngineLand - Является ли CTR фактором ранжирования?

Что-то было серьезно не так с двумя сайтами моих клиентов. Они не страдали от проблем Панды или Пингвина. Их сайты были более здоровыми, чем большинство их конкурентов. Тем не менее, я потратил 2 месяца на исправление каждой проблемы, которую мог придумать, и все равно ни один рейтинг не изменился. Что-то еще, что-то новое подавляло их видимость поиска.

Я исследовал все, что мог. Их обратные ссылки были чистыми, их цитаты были точными, а их элементы на странице также были должным образом оптимизированы.

Что это было? Я должен был докопаться до сути.

За рамками обратных ссылок

Я был вынужден искать за их профиль ссылки для ответа. Когда я это сделал, я обнаружил две необычные вещи:

После проверки всего, что я мог придумать, я начал ежечасно сканировать их веб-сайт. Оказывается, это был разумный шаг, потому что он помог мне найти проблему.

Саботированные серверы (но не DDoS)

Один из сайтов показывал высокую нагрузку на сервер в ранние утренние часы, вызванную интенсивным сканированием.

Конкуренты (я полагаю) замедляли работу сервера клиента из-за интенсивного сканирования с разными IP-адресами и загрузки больших изображений (5+ МБ) на сайты с высоким трафиком и т. Д. Атаки обычно происходили между 2 и 5 часами утра. Обычно я сканировал веб-сайт только с 9 утра до 8 вечера, поэтому я никогда не видел проблем с производительностью.

Их сервер ползал:

Их сервер ползал:

Это должно было выглядеть быстро, вот так:

Это должно было выглядеть быстро, вот так:

Поддельный ужасный пользовательский опыт

Второй сайт подвергся атакам кликов (от Google SERPs) на основные ключевые слова и термины, связанные с брендом. Похоже, бот CTR был запрограммирован на поиск по их терминам и клик на результаты, за исключением их сайта. Это создало ложный показатель отказов SERP, ослабляя сигналы брендов и позволяя конкурентам занять свои позиции в поисковой выдаче.

Диагностика этих проблем заняла некоторое время, но как только мне удалось найти решение с помощью бота CTR, сайты начали медленно восстанавливаться через 3-4 недели (возможно, с развертыванием Panda). Оба восстановления все еще продолжаются.

Этого не должно быть

Это заставило меня задуматься. Теоретически эти проблемы не должны были быть возможными, потому что:

  • Ни у одного сайта не было негативной SEO-атаки, связанной со строительством ссылок.
  • Оба сайта были технически исправны.
  • Оба сайта были лучше конкурентов и имели уникальную ценность для клиентов.
  • Кроме того, оба сайта потратили много времени (часть этого со мной) на технические аудиты SEO, аудит контента, переписывание контента, переписывание заголовков и т. Д. Один из сайтов (электронная торговля) переписал 40% описаний (все дублировать в этой нише).
  • Оба сайта были относительно новыми: одному было около 1,5 лет, а другому около 3 лет. (Они еще не были признанными брендами, поэтому, возможно, было легче разбавить их сигналы.)

Так что же случилось? Это была просто случайность? Или это был отрицательный SEO?

Я поделился этим случаем с некоторыми из моих друзей в сообществе SEO, и я получил смешанные ответы. Некоторые видели сигналы, которые подтвердили мои подозрения, но другие отвергли идею стиля «Мэтт Каттс», заявив, что такая атака была невозможна.

Можно ли было атаковать сайт без обратных ссылок? Я должен был знать. Чтобы узнать, я экспериментировал в своем блоге.

Тестирование негативного SEO на себе

Мой блог довольно новый (~ 12 месяцев). Я никогда не занимался созданием ссылок, но у него все еще было много положительных сигналов и естественных ссылок. Я был в восторге от того, насколько хорошо мой контент был ранжирован. Могу ли я повторить проблемы своих клиентов и «убить» их с помощью сигналов взаимодействия с пользователем?

Жертва

Я решил выбрать одну из моих лучших ключевые слова : «Пингвин 3.0». С апреля мой блог последовательно занимал место между № 1 и № 2 в поисковой выдаче по этому запросу. Я был первым, кто написал об этом в блоге и получил много естественных ссылок на страницу. Ссылки были высокого качества, и я пользовался стабильным рейтингом.

Инструмент:

Я создал бота для поиска «пингвин 3.0» и щелкнул по случайному сайту. Есть только одно исключение: он был запрограммирован не нажимать на http://goralewicz.co/, тем самым значительно снижая рейтинг кликов .

Вердикт:

16 августа 2014 года я отправил трафик на это ключевое слово со всего мира, щелкнув все, кроме моего веб-сайта.

Моя страница Penguin 3.0 быстро упала.

Я внимательно следил за этим, чтобы убедиться, что моя потерянная видимость не была вызвана тем, что конкуренты прыгали выше меня с новым контентом или другими факторами. Ничто иное, как этот бот CTR, не могло заставить мой рейтинг так быстро упасть.

Новые ранжирующие сигналы создают опасность для SEO

Но это была не единственная проблема, которую я обнаружил. Я провел много времени, анализируя атаки на сайты моих клиентов. Я нашел несколько новых и серьезных способов, с помощью которых негативные оптимизаторы могли бы ориентироваться на сайт. Я не буду перечислять их здесь, так как я не хочу выдвигать идеи для SEO, но если вы хотите быть защищены от этой тактики, обязательно реализуйте:

  • Безупречный SEO на месте
  • Нет индекса раздувает
  • Следите за своими новыми ссылками
  • Внимательно следите за всеми данными Инструментов Google для веб-мастеров

Это не только негативная мера предосторожности в отношении SEO, важно отслеживать эти факторы еженедельно или ежемесячно для поддержания высоких позиций в поисковой выдаче.

Опыт пользователя - сильный сигнал

Очевидно, что пользовательский опыт является сильным сигналом. Рейтинговые факторы SearchMetrics '2014 кажется, чтобы подтвердить мои выводы. Недавно я разговаривал с инженером Яндекса, который признал, что они не отслеживают ссылки для коммерческих запросов в Яндексе. Новый веб-сайт должен получать трафик из источников, отличных от поисковых систем, чтобы учитываться для ранжирования в алгоритме Яндекса.

Идет ли Google так же? последний ранжирование останавливается Похоже, что все форумы Black Hat подтверждают подобные паттерны в Google. Если так, то это подвергает SEO новой и сдержанной угрозе: Linkless Negative SEO.

Безлицензионный Отрицательный SEO

Если то, что случилось с моими клиентами, является каким-либо показателем, вот будущее отрицательного SEO:

  • Тихо
  • скрытый
  • Почти невозможно диагностировать
  • Основано на технике «медленно кровоточить»
  • ПРАВОВАЯ

Это беспокоит. Оптимизаторы оказались между двумя клещами: Google и диверсантами сайта. С одной стороны у вас есть Google, затрудняющий ранжирование, постоянно переопределяя их алгоритм. А с другой стороны, у вас есть оппортунисты, желающие использовать изменения Google, чтобы нанести ущерб и уничтожить их конкурентов.

Отрицательный SEO без ссылок привлекателен по шести причинам:

  1. Простая съемка ссылок на сайтах предсказуема
  2. Затронутые сайты могут легко найти плохие обратные ссылки
  3. Люди быстро дезавуируют их
  4. Атаки сайтов могут выследить вас
  5. Вы можете помочь им в конце (просто спросите у ребят из Dejan SEO)
  6. Они хорошо работают в сочетании с методами «старой школы», используемыми в качестве приманок

Заключение

После Пингвина SEO стали ответственными не только за создание ссылок, но и за защиту своих клиентов от опасных ссылок. Теперь они должны быть еще более бдительными. Безлицензионное негативное SEO опасно и может стать одним из худших событий в нашей отрасли.

Раньше отрицательный SEO просто запускал xRumer и снимал плохие ссылки на сайты . Это был плохой способ ведения бизнеса, но было легко определить и понять, как с ним бороться. Я все еще дезавуирую тысячи ссылок в неделю для некоторых из моих клиентов.

Поиск и удаление плохих ссылок отнимает много времени, но решить все эти проблемы с пользовательским интерфейсом гораздо сложнее. Кроме того, это практически невозможно обнаружить. Если вы не знаете, что искать, я верю, что большинство людей никогда не узнает, что происходит.

Перед лицом этой новой угрозы SEO должны внимательно следить за Linkless Negative SEO, если они хотят выжить и процветать в Интернете.

Это была просто случайность?
Или это был отрицательный SEO?
Перед прочтением этого примера я настоятельно рекомендую мой гостевой пост SearchEngineLand - Является ли CTR фактором ранжирования?
Что это было?
Так что же случилось?
Это была просто случайность?
Или это был отрицательный SEO?
Можно ли было атаковать сайт без обратных ссылок?
Могу ли я повторить проблемы своих клиентов и «убить» их с помощью сигналов взаимодействия с пользователем?
Идет ли Google так же?