Последствия алгоритма Google «Fred».
Алгоритмы Google FRED
Последствия алгоритма Google «Fred».
Конференция для экспертов в области SEO
Ваша оценка:
Дата публикации:
Слухи о последнем обновлении Google сотрясают мир SEOшников по сей день. Так был ли Fred? Какие сайты пострадали? Как узнать, что ваш ресурс пессимизирован новым алгоритмом? Спикеры  SEMPRO 2017, ведущие специалисты в SEO и SEM, разобрались в ситуации и поделились своими заключениями.

Нужно понимать, что официальной информации о Google Fred вообще нет. Название было дано — из шуточного твита Гари Иллиса.

Алексей Трудов, SEO-аналитик и независимый консультант:

Что достоверно известно?

Только факт сильного «перемешивания» выдачи в феврале и марте. Его зафиксировали анализаторы вроде  algoroo.com.

Нет смысла гадать над названием и упражняться в толковании намеков Гари Иллиса (увы, новостной фон в основном развивается в этом ключе). Полезнее изучить пострадавшие сайты и выделить их общие черты.

Некоторые специалисты отмечают, что мартовское обновление напоминает апдейт Пингвина. Google в том числе реабилитировал сайты, наказанные за ссылки в 2014 году.

Отдельного внимания заслуживает  статья от Juan Gonzalez. Основной вывод — падение видимости связано с избытком рекламы в первом экране а также контентом без особой ценности.

Мои собственные наблюдения (я исследовал выборку из 52 пострадавших сайтов) в целом согласуются с этой оценкой. Однако есть несколько важных дополнений.

Во-первых, днем рождения алгоритма считаю 7-8 февраля. Тряску позиций в эти дни тоже активно обсуждали, однако о ней подзабыли после мартовского обновления. Многие сайты начали терять трафик в начале февраля, а в марте пострадали еще больше. 

Во-вторых, далеко не всегда просадка связана с агрессивной рекламой. В моей выборке множество проектов, где блоки размещены весьма умеренно. Более того, встречаются и коммерческие сайты вообще без рекламы. А вот преобладание страниц с некачественным, неуникальным или переоптимизированным контентом характерно для абсолютного большинства проблемных ресурсов.

В-третьих, работа Фреда похожа на хостовый фильтр. Он приводит к понижению позиций у всех страниц сразу. Даже уникальные материалы начинают приносить трафика на 40-60% меньше.

Как определить, что сайт пострадал от Фреда? Главный симптом — резкая просадка позиций и трафика в районе 7-8 февраля и 8-14 марта. Разумеется, прежде чем ставить диагноз, нужно исключить влияние сезонности, технических проблем и так далее. Стоит посмотреть, что происходит с трафиком из других поисковых систем. Если в них падения не наблюдается — это усиливает подозрения на проделки Фреда.

Не существует простого рецепта, как поступить в такой ситуации. Алгоритм явно работает комплексно, пострадали самые разные сайты.

Начать же я рекомендую со следующего:

  • проверить сайт на технические проблемы и дубли контента;
  • определить документы, на которых пропал или сильно снизился поисковый трафик и улучшить контент на них;
  • проверить сайт на исходящие ссылки — ведут ли они на заслуживающие доверия сайты?

Кстати, все это полезно проделывать регулярно на любом сайте. Для тех случаев, когда установлено влияние Фреда, нужно постараться экстренно улучшить соотношение «хорошие/плохие» страницы.

Небольшим проектам может помочь массовое добавление контента, крупным — изменение настроек индексации и новая логика формирования шаблонных страниц.



Дмитрий Суслопаров, руководитель отдела диджитал маркетинга в Vardot:

Какие сайты пострадали от алгоритма Fred?

Обновление Фред отразилось в первую очередь на сайтах с существенными недочётами в контенте или же просто на сложных для восприятия (например, по причине переизбытка рекламы). Важно понимать, что Фред — это не новый алгоритм, а лишь патч, который был наложен на существующий процесс. Поэтому правила игры не изменились.

Как узнать, что ресурс пессимизирован новым алгоритмом?

Самое надежное — это воспользоваться Google Analytics и сравнить органический трафик до 9 марта 2017 года и после. Если вы заметили существенное падение цифр, есть повод насторожиться.

Что делать в этом случае?

Главное — не отчаиваться! В конце концов улучшать контент проще, чем удалять вредные ссылки с чужих доменов (хотя если улучшения контента не помогут, придется заняться именно этим). Но в первую очередь я бы посоветовал посмотреть на сайт глазами обычного пользователя и подумать, что именно ему может в нем не нравиться. Иногда ответ лежит на поверхности, например, ваш сайт пестрит рекламой, и среднестатистический человек просто не способен отыскать в ней то, за чем он его открыл. В таком случае количество баннеров следует уменьшить. Также всегда полезно поработать над текстами. Можно добавить в них видео и картинок (вы же помните, насколько это важно?), увеличить их длину (стремиться нужно к этому, но даже пару абзацев на каждой странице будет воспринято Гуглом как обновление контента и в целом положительная тенденция), еще раз проверить исходящие ссылки на наличие битых или же ведущих на сомнительные сайты.

Рекомендации, перечисленные выше, в принципе актуальны даже для тех сайтов, который не пострадали в результате Фред. Гугл не скрывает, что будет добавлять новые апдейты, направленные на приоритизацию сайтов с качественным контентом. Поэтому следуйте заповедям из «Вебмастера» и спите спокойно!



Игорь Рудник, руководитель сервиса крауд-маркетинга referr.ru:

Какие сайты пострадали от алгоритма Fred?

Вот  лучший материал по теме, который я видел, собраны примеры сайтов, которые просели в результате апдейта.

Если посмотреть примеры, то в основном это контент-фермы сомнительного качества.

С другой стороны, фред также затронул сайты со слабым ссылочным, это мы увидели на своих и партнерских ресурсах.

Вот что об этом говорит moz.com:

Подтверждения от Гугл еще нет, поэтому все догадки пока строятся на основе малых выборок данных.

Как узнать, что веб-ресурс пессимизирован новым алгоритмом?

Проще всего проверить через  barracuda.digital, и на графике сравнивать изменение трафика сайта после апдейтов алгоритма.

Что делать в этом случае?

Переписывать контент и улучшать ссылочный профиль.


Константин Карпалов, руководитель Payday Loans в Global Digital Marketing:

Какие сайты пострадали от алгоритма Fred?

Прежде всего Fred это алгоритм, обращающий внимание на качество и пессимизирующий сайты с повышенным количеством рекламы или с низкой составляющей полезности контента для пользователя.
Также этот алгоритм зацепил сайты с некачественной ссылочной массой — ссылки с нетематических ресурсов, крауд маркетинг по переспамленным форумам, а также нетематические PBN, созданные исключительно с целью увеличения кол-во входящих ссылок на сайт.

Как узнать, что веб-ресурс пессимизирован новым алгоритмом? Что делать в этом случае?

Если вы заметили резкое проседание по позициям и, соответственно, потерю трафика прежде всего рекомендую пересмотреть свой backlink-лист на предмет некачественных ссылок с добавлением их в disavow
Второе — это обратите внимание на контент сайта. Если вы оптимизируете сайты под зарубежные тематике убедитесь, что они написаны грамматически правильно и потенциально принесут пользу посетителям вашего сайта. Для этой задачи лучше всего использовать native-копирайтеров с опытом написания статей под вашу тематику.

Так как я работаю в основном в сегменте арбитража трафика в нишах ecommerce и finance, изначально выход нового алгоритма меня тревожил. Но, по итогу, получилось так, что позиции моих проектов практически никак не изменились. Я сделал вывод, что данный алгоритм мало чем будет вреден для площадок, которые используют user-oriented контент хорошего качества и ориентируются в первую очередь на полезность информации для пользователей. А продажа трафика у меня построена не через рекламные сети типа adsense и других, а напрямую на сайты рекламодателей через их внутренние партнерские сети или через СРА-сети со скрытием трекинг домена в TDS, что делает уход с сайта более «нативным». Что касается продвижения — я комбинирую классическую закупку качественных ссылок с поднятием тематических дропов и UGC-ссылками.


Дмитрий Иванов, руководитель компании Ukrop Media:

Фрэды, панды и пингвины

Гарри Иллш предложил назвать новый алгоритм – Fred. Что будет делать этот алгоритм, какая зверюшка таится под этим названием и когда этот алгоритм начнет работать в полную силу он не сказал. А еще он сказал, что решение не обсуждать алгоритм лежит на руководстве Google. Пишите письма.

Тем хуже для нас. Проекты нашей компании, которые могли попасть под Fred очень обеспокоились.

«Дмитрий, надо понять попали ли мы под фильтр, или понять попадем или нет!», — Америка, Канада, Европа просят по-русски рассказать об алгоритме, который начнет свой путь с западного Google. Поскольку трафик у этих проектов не просел, пришлось искать кейсы в сети. Я поделюсь ссылками, но пересказывать их не буду, а постараюсь выдернуть суть.

Дело в ссылках! (На самом деле нет)

Автор обнаружил некоторую корреляцию между приростом ссылочного и просадкой сайта, однако не учел множество других факторов, которые могли повлиять на падение. Кейс доказывает, что если вы под прицелом Fred, то закупка плохих ссылок вам не поможет.

Дело в контенте! (На самом деле нет)

Автор верит, что плохой и низкопробный контент влияет на позиции сайта в поиске. Я совершенно согласен с этим утверждением, но нам не нужен 2017 год и алгоритм Fred чтобы это понять. Я допускаю, что Google усилил влияние некоторых контентных факторов, но на новый алгоритм не тянет.

Дело в спамных текстах! (На самом деле нет)

В глубоких анналах этого форума можно найти посты, в которых вебмастера делятся кейсами о просадке сайтов, где текст был переспамлен ключевыми словами или текст не соответствует странице. Даже задумываться не хочу, зачем писать текст, который не подходит под страницу, но эти показатели были важны еще в эпоху текстового поиска.

Мое мнение на счет Fred очень простое: если вы под него попали, то дело и в ссылках, и в контенте, и в спамных текстах и много чем еще. Алгоритмы поисковых систем, это ансамбли моделей машинного обучения, которые позволяют находить в огромном индексе такие сайты, которые не соответствуют заложенной в алгоритме логике. Говоря простым языком – сайты, которые выделяются на фоне остальных.

  • Панда работала с упором на качественный контент.
  • Пингвин находил сайты с плохим ссылочным.
  • Колибри помогал понять «человеческие запросы».

Что будет делать Fred мы узнаем совсем скоро, но похоже, что этот будет алгоритм, направленный на улучшение качество поисковой выдачи. Эти слова мы уже слышали сотню раз, но ничего другого и конкретного мы не узнаем. Это дал понять Гари Илш и руководство Google. Остается ждать и собирать кейсы падения проектов в Google.


Вывод

Вывод будет очень скромным: как и всегда следует сильно следить за контентом сайта! Вот прям нереально сильно, отслеживать все телодвижения своего контент менеджера, следить за ссылками с/на сайт. Не забывать про мета разметку сайта и всячески помогать ботам поисковика понимать суть сайта.