Как выйти из фильтра взрослый контент и агрессивная реклама в яндексе

  • 11 декабря 2019, 21:24
  • 1023
  • 0

Вряд ли кто-то создает сайт «просто так» - его всегда хочется вывести в топы тематических запросов в Yandex и Google, чтобы труды прошли не насмарку. И пользователи оценят, и небольшую «прибавку к зарплате» получить удастся. Вот только сначала нужно пробиться через ограничения и фильтры поисковиков.

Пытаясь угодить этим требованиям, нельзя переусердствовать – сайт будет воспринят как «заспамленный» и вскоре будет забанен. Очень важно поддерживать баланс между желанием сделать свой контент и продвинуть его, вставляя в текст максимальное количество нелепых ключевых запросов.

Что такое пессимизация и как использовать фильтры при ранжировании

«Переспам», о котором говорилось ранее, - это переизбыток ключевых слов и фраз, анкор-листов и накрутка посещений на сайт. Все эти факты Яндекс и Google уличают с помощью собственных алгоритмов. Нарушителей их правил они удаляют из поисковых запросов, а в лучшем случае – понижают релевантность. Это отсеивание происходит с одной целью – убрать рекламные сайты из результатов запроса и выдать пользователю только сайты с качественным контентом.

Пессимизация – это один из способов отсеивания заспамленных сайтов. Она выполняется двумя способами:

  1. Фильтры накладываются еще до оценки Вашего сайта. Если обнаружат какие-то махинации и манипуляции, могут обнулить один из параметров релевантности, из-за чего общий показатель будет ниже того, что находится на первой строке выдачи поиска. В дальнейшем, возможно, расширения санкций не будет, и расчет релевантности буде проходить по стандартной схеме. Но вот обнуленный параметр, скорее всего, на место не вернут, и Вы не сможете вырваться выше. Так и работает пессимизация.
  2. Фильтры накладываются после оценки сайта и расчета формулы релевантности. Параметры не понижаются и не обнуляются, только от конечного числа релевантности отнимается несколько пунктов – «штраф». В тот момент, когда Вам кажется, что Ваш сайт близок к топу, фильтр может опустить его, если найдет признак переспамленности.

За что же может быть наложена пессимизация?

Качество контента

«Портяночный» фильтр выделяет тексты с высоким процентным содержанием ключевиков. Да-да, у Гугла и Яндекса тоже есть свои списки ключевых слов и фраз к разным запросам, но они могут включить амнистию, если ресурс, который они уличили в нарушении, достаточно известен. Чтобы избежать воздействия этого фильтра, нужно все ключи распределять равномерно по тексту и не превышать тридцати ключей на весь текст. «Минусуются» позиции сайта как раз соразмерно количеству ключей в тексте.
Переоптимизация – это максимальное приближение параметров текста к релевантным со снижением уровня читабельности. Штраф накладывается после оценки уровня релевантности.

Идентичные сниппеты. Кража – это всегда плохо. Если один сайт крадет сниппет (фрагмент исходного кода) у другого, то поисковики будут показывать только один из них (их выбор даже не зависит от релевантности!).

Аффилированность (создание клонов сайта и их продвижение до тех пор, пока один из не «выстрелит»). Яндекс и Гугл еще не до конца научились грамотно отсеивать клонов, принадлежащих одному и тому же владельцу – если убедить их в том, что второй сайт принадлежит конкуренту, они закроют на это совпадение глаза.

Качество входящих ссылок.

Переизбыточность ссылок. Имеется в виду не количество ссылок на сайте, а количество ссылок на внешних ресурсах, ведущих на сайт. Есть некая норма по количеству этих ссылок, и в некотором смысле умнее поступает Гугл – он больше внимания по переизбыточности ссылок уделяет молодым сайтам.
Вставленные seo-ссылки. Это не касается коммерческих запросов – в этом плане они наоборот создают положительную репутацию сайту.
Большое количество ссылок на сайт, которые расположены на ненадежных, забаненных ресурсах. Даже если на сайт ведут сотни и тысячи ссылок, наличие нескольких с «подозрительных» ресурсов может срубить на корню все старания.

Низкая уникальность контента (с этим все понятно – поисковики не будут выводить в топ ресурсы с ворованным контентом);

Участие в линкаторах (площадки для обмена ссылками).

Как не попасть под фильтр, повышая релевантность своего сайта

Стоит понять, как с хорошими намерениями не навредить своими действиями показателям релевантности сайта. Помимо оптимизации текстов стоит поработать над поисковыми запросами, а еще добавить url сайта в Я.Вебмастер. Раз уж наличие ссылок на сайт в «нежелательных» ресурсах оценивается отрицательно, лишним не будет добавление сайта в одобренные каталоги – Dmoz, тот же Яндекс и т.д. Понижение релевантности – не самое худшее, что может случиться. Если сильно накосячить, сайт внесут в черный список.

Ранжирование сайтов в списке выдачи проходит следующим образом:

  • На первые места выводятся те сайты, контент которых максимально точно подходит под поисковый запрос. При этом сайт может постоянно соскакивать вниз или вверх – это считается нормальным, работает алгоритм.
  • В приоритет всегда ставятся интересы пользователя. Именно он отчасти участвует в ранжировании результатов запроса, «голосуя» временем, проведенным на сайтах в выдаче.
    Проводится пессимизация сайтов (о факте нанесения санкций никто владельцу сайта не сообщает) и добавление в черный список. Яндекс вообще придерживается позиции, что не обязан никому сообщать о своих решениях по бану или пессимизации, но у некоторых получалось отвоевать свои права, долго и муторно разговаривая с техподдержкой;

Как Яндекс накладывает пессимизацию на сайты

Яндекс вежливо размещает перечень параметров, которым должен отвечать достойный появления в результатах поиска сайта. Это уникальность контента, соответствие поисковому запросу, отсутствие на сайте ссылок, размещенных за плату, отсутствие мошеннических схем продвижения сайта в поисковой сети.

Яндекс до сих пор борется с дорвеями (содержимое страниц генерируется автоматически, разбрасывая ключевые слова по всему тексту), которые всегда попадали в топ результатов поисковых запросов благодаря своим «сверхспособностям». Проблема в том, что пользователь при переходе на страницу видел не этот текст, соответствующий его запросу, а совершенно другой – порой вообще не подходящий по теме. Дорвеи все еще можно сделать, но их нещадно банят.

Пессимизацию могут наложить за то, что на ресурсе размещен неуникальный каталог сайтов. Это плохо не только для тех, кто размещает каталоги – самому продвинуться с помощью каталога теперь не получится. Также если на сайте будут замечены невидимые или слабо видимые надписи, сайт ждет понижение релевантности.

Даже если текст, перенасыщенный ключевыми словами и фразами, запрятать в скроллинг, его все равно найдут и рейтинг сайта понизят. Блокируют и использование клоакинга, который определяет, кто зашел на страницу – настоящий пользователь или бот с проверкой. Конечно, боту выдается только то, что он должен видеть.

По мнению Яндекса, сайт должен быть создан для того, чтобы создавать контент и делиться им, а не для того, чтобы собирать трафик и сливать его куда-либо. Даже если контент будет максимально уникальным, но будет создан для сбора трафика, сайт все равно забанят. За «переспам» могут принять облако тегов или список тегов после текста статьи – их размещение близко друг к другу даже в таком формате очень опасно. Следует обращать отдельное внимание на подписи к картинкам – они тоже проверяются на переспам. Понятно, что их стремятся заполнить максимально информативно для попадания в топ поиска, но это стремление может сыграть злую шутку.

Банально: Яндекс и Гугл не переваривают сайты, которые начинают автоскачивание файла при переходе, используют всплывающие окна с рекламой и распространяют вирусы. Под удар попадают плагины и расширения, которые помогают реализовать эти нарушения. Даже очень хорошо спрятанную фишку рано или поздно найдут, и трафик с поисковиков придет к нулю.

Яндекс пресекает всякие попытки к добавлению в поисковик форумов и досок с объявлениями – информация там не является подтвержденной и зачастую не фильтруется, поэтому разрешать их – это риск. Самое дерзкое «преступление» - это продвижение в Яндексе сайта, который рекламирует услуги по повышению релевантности другого сайта.

Есть лазейка – все еще не банятся ссылки, которые даются через биржи вечных ссылок: RotaPost, GoGetLinks, LetGoodLinks, MiraLinks. «Сателлиты», т.е. сайты, которые помогают проталкивать один определенный сайт вверх, уже не нужны – они морально устарели. Если в Ваш сайт прикручен поиск по Яндексу или Гуглу, нужно устроить так, чтобы страницы с вашего сайта не попадали в индекс.

Что делать, если алгоритм поисковиков все-таки наложил санкции на сайт

Совет один – не попадайтесь! Или делайте изначально так, чтобы не возникало претензий и сайт не попадал по параметрам под пессимизацию или бан. Как показывает практика, исправление ошибок по всему ресурсу занимает от двух дней до недели, если сидеть за работой, не отрываясь.

Но не стоит расстраиваться: техподдержка Google и Яндекс не так уж и плоха и действительно помогает в сложной ситуации. Если Вы видите по Яндекс.Метрике и Google Ads, что заходов на сайт стало намного меньше, чем пораньше, то пора начать беспокоиться о тревожном звоночке (конечно, если Вы до сих пор продвигаете свой сайт и тематика остается популярной).

Первое письмо в техподдержку позволяет выяснить, действительно ли причиной падения трафика на сайте стала пессимизация или блокировка в поисковике. Если это так, то дальше придется плотно и долго сотрудничать с техподдержкой: сначала выяснить, что послужило причиной такой внезапной «обиды», на что они ответят прозрачно и без конкретики, ссылаясь на пункт правил пользования серсисом.

Затем, когда ошибки будут исправлены, изменения внесены и перепроверены, можно будет обратиться с запросом на перепроверку. Тут-то и наступит самый обидный и неудобный момент – перепроверка может длиться больше месяца. Аргументируют это тем, что на проверку и перепроверку контента стоит большая очередь, и весь месяц придется просидеть без трафика.

Вывод один: нужно воспользоваться советом и сделать все ради того, чтобы пройти через фильтры Яндекса и Гугла.

Добавить комментарий
Прикрепить