Клиент: фабрика мебели на заказ. Сайт с каталогом продукции.
Пришел клиент, недовольный посещаемостью с поиска. Хотел разовые работы по SEO-оптимизации.
Начали изучать ситуацию с поисковым трафиком в Метрике. Сразу бросилось в глаза, что с Яндекса 99% посетителей приходит по брендовым запросам. Брендовые, или витальные запросы – это запросы, в которые входит название компании, по ним сайт по умолчанию в топ-1. А вот страницы товаров и категорий трафик из Яндекса почти не собирали. По запросам «купить диван», «мебель на заказ» и подобным коммерческим запросам сайта не было даже в топ-50.
Предположили, что сайт получил штрафную санкцию от Яндекса (фильтр). Поисковые системы наказывают некачественные сайты – понижают позиции по запросам или выкидывают из поиска. Причем требования к текстам ужесточаются. Так, в 2017 году Яндекс выкатил новый фильтр за переоптимизацию "Баден-Баден ".
Раньше наличие санкций можно было определить только по косвенным признакам. С 2015 года информацию о фильтрах показывает Яндекс Вебмастер в разделе «Нарушения». Правда не обо всех, поэтому перепроверять все равно надо.
Зашли в Вебмастер – действительно, фильтр.
Недостаточно просто избавиться от переспама на сайте, нужно так же провести и внутреннюю оптимизацию – улучшить все, что возможно. После устранения нарушений нажать кнопку в Вебмастере «Я исправил». Если поисковик решит, что переспам действительно исчез, позиции восстановятся. Кнопку можно нажать только раз в 30 дней. То есть малейшая ошибка может затянуть процесс выхода из-под фильтра еще как минимум на месяц.
Поэтому мы делали плановые работы по оптимизации, параллельно анализируя причины фильтра. Санкции Яндекса описаны . Ориентируясь на симптомы, мы выделили 3 возможные причины:
Выяснили у заказчика, использовал ли он спамные методы продвижения: сам или с помощью подрядчиков. Ответил, что раньше сайт вообще не продвигался. Тем не менее, мы все проверили: по опыту знаем, что клиенты часто умалчивают о предыдущей истории продвижения сайта. Они боятся, что мы будем перекладывать ответственность на прошлых подрядчиков. Дескать, это они вам сайт испортили, а не мы.
Бывает, что клиент и не подозревает о том, что его сайт продвигался черными методами.
Например, мог доверить наполнение сайта администратору, а тот сделал страницу обмена ссылками для раскрутки. Или добавил вредоносный код, устанавливая плагин. Или программист возомнил себя специалистом по продвижению и разместил скрытый текст с ключевиками на странице. Не разбираясь в SEO, можно наделать самому себе много неприятностей.
Начали проверять контент. Самые рапространенные методы черного SEO – это переспам в текстах, когда статью перегружают ключевыми запросами, либо размещают скрытый текст для роботов. Скрытого контента мы не обнаружили.
Перешли к проверке текстов на страницах категорий и товарных описаний. Клиент заказывал их написание у копирайтера и был уверен, что статьи уникальные, а значит качественные. Это одна из частых ошибок – считать, что уникальный текст и качественный это одно и то же. Показатель уникальности текста существует только для поисковых роботов, людям он ни к чему. Тексты копирайтеров по 100 рублей за 1000 символов, на 100% уникальны при проверке разными сервисами. Но они неинформативны и не несут никакой пользы читающему.
Раньше переспамленные тексты работали, и с их помощью можно было продвигать сайты. Современные поисковые системы рассматривают не только уникальность и наличие ключевых запросов, они оценивают, как на текст реагируют пользователи. Грубо говоря, если текст не читают, поисковик считает его бесполезным.
С совершенствованием поисковых систем требования к контенту повышаются. Меняется «порог спамности». Это термин, которым оперируют плохие SEO-копирайтеры. Означает этот порог – сколько максимум ключевиков можно впихнуть в статью, чтоб не забанили. Если писать текст естественным языком, не переживая о вхождениях запросов по ТЗ, понимая, зачем он нужен на странице, для пользователей, а не для роботов – поисковые системы это оценят. Если текст будут читать, ни о каких «порогах спамности» можно не думать.
На сайте мы имели дело с классическим дешевым SEO-копирайтингом. Страница с мягкой мебелью на заказ сообщала читателю о том, что «в ее объятиях мы расслабляемся после рабочего дня, беззаботно мечтаем, размышляем о времени или же просто наслаждаемся ее видом в своем любимом интерьере». И далее в том же духе. Это явно не то, что помогает посетителю выбрать мягкую мебель. Он и без текста знает, что на диване можно спать, иначе не хотел бы его купить.
При более подробном анализе мы нашли на сайте еще и скрытый из меню раздел со статьями. Статьи представляли собой огромные SEO-портянки о мебели, перенасыщенные ключевиками. Тоже одна из частых ошибок – вести блог для поисковиков, а не для читателей. Схема проста – берется набор запросов и под них пишутся статьи, неважно какого качества и о чем. Их задача только привлечь человека из поисковой системы по запросу. Однако со спамными статьями это не работает. Проверили по Метрике – за всю историю сайта этот раздел приносил жалкие крупицы трафика.
Итак, болевые точки найдены – мешает продвижению именно низкокачественный контент. Решили удалить скрытый раздел со статьями, а остальные тексты на сайте переписать. Однако клиент запротестовал, тексты в категориях товаров ему нравились. Договорились о компромиссе: не переписывать целиком, а убрать лишние вхождения ключевиков, таким образом снизить заспамленность. Скрытый раздел однозначно удаляем.
После выполнения всех работ нажали кнопку «Я исправил» в интерфейсе Вебмастера и стали ждать результатов.
Через месяц санкции сняли, и трафик с Яндекса по небрендовым фразам вырос. С 10 посетителей в неделю до 60. Рост трафика связан не только со снятием санкций, но и с работами по внутренней оптимизации.
Показов в поиске тоже стало больше. Это говорит о том, что поисковая система считает сайт качественным.
База для SEO построена. Теперь нужно продвигаться дальше, и дожимать запросы до топ-10.
В Яндексе достаточно большое количество алгоритмов, которые разработаны для улучшения поисковой выдачи. Но есть 5 основных, о которых должен знать каждый владелец сайта.
И если вы попытаетесь обмануть алгоритм, то легко можете загнать сайт под фильтр, и на сайт будут наложены санкции, даже если манипуляция была неосознанной. Итак, что это за алгоритмы.
Со 2 февраля 2016 года оптимизация для мобильных - теперь фактор ранжирования. Это значит, что если ваш сайт не удобен для пользования с мобильных устройств, то вряд ли у него будет шанс попасть на хорошие места в мобильной выдаче.
«Что касается ранжирования на компьютерах, факт того, что страница оптимизирована для мобильных, может в перспективе учитываться в обучении формулы наряду с несколькими сотнями других факторов. Однако маловероятно, что «мобилопригодность» как фактор сильно повлияет на ранжирование на десктопе» - такой комментарий дала пресс-служба Яндекса насчет десктопной выдачи.
С каждым днем количество пользователей, посещающих интернет с мобильных устройств, только растет, сейчас в среднем у наших клиентов видим около 8-10% мобильного трафика, и если ваш сайт не адаптирован для мобильных, этот трафик вы не дополучите.
Среднестатистическое распределение входящего трафика в зависимости от устройств:
Специальный инструмент есть в бета-версии нового вебмастера
Со 2 марта также помимо прочего учитывается размер шрифта на странице, Яндекс рекомендует использовать не менее 12px.
Проверьте свой сайт, адаптируйте под мобильные и получайте максимум трафика!
Для тех, кто только сделал свой сайт мобильным, рекомендуем воспользоваться инструментом «Диагностика сайта» и сообщить Яндексу, что проблема с мобилопригодностью устранена.
Мы обязательно проверяем каждый сайт в рамках комплексного продвижения сайта . Заказать адаптацию сайта под мобильные тоже можно у нас , цена от 6000 рублей за 1 сайт.
В декабре 2015 года Яндекс внедрил алгоритм, который понижает в выдаче сайты за использование технологии кликджекинга. Это как раз тот случай, когда чаще всего владелец сайта не подозревает, что использует «незаконную» технологию на сайте и сайт может быть понижен в результатах поиска.
Термин «кликджекинг» впервые ввели Роберт Хансен и Еремия Гроссман.
Кликджекинг - это механизм обмана пользователей, когда на видимую страницу помещается невидимый слой, при этом элемент, на который можно кликнуть, размещен в одном и том же месте.
Если говорить простым языком, то пользователь думает, что кликает на кнопку «Получить прайс», а на самом деле подписывается на новости другого источника. И вариантов обмана может быть множество: от получения безобидных лайков, до кражи данных о пользователе и совершения покупок за ваш счет.
Яндекс обнаружил более 50 сервисов, которые для «улучшения продаж вашего сайта» используют технологию кликджекинг. Чаще всего эти сервисы идентифицируют посетителей сайта и «собирают» данные из их профилей в соцсетях: телефоны, адреса, ссылки на профили соцсетей и т.п.!
Таким образом, вы будете знать, кто к вам пришел на сайт, и сможете тут же взаимодействовать с потенциальным клиентом - позвонить ему или написать письмо или сообщение в профиль соцсети:
Подобные «маркетинговые фишки» чаще всего реализуются с помощью незаконных технологий. Т.к. пользователей сайта не просят оставить свои контакты, их попросту воруют.
Берегитесь ставить незнакомый код на своем сайте. 90% сервисов, использующих технологию кликджекинг, говорят, что ее не используют.
Летом 2015 года Яндекс тестировал новый подход к определению релевантности документов. Суть его состоит в том, что по некоторым сайтам недостаточно данных для определения степени удовлетворенности пользователей. Так бывает с молодыми сайтами и сайтами, которые ранжируются низко, и данных по которым просто нет.
Поэтому Яндекс в выдаче периодически показывает сайты, по которым недостаточно информации для принятия решения о полезности документа. Да, возможно, качество текущего поиска при этом снижается, но стратегически поисковик от этого выигрывает.
Если сайт выдаст хорошие показатели юзабилити и удовлетворенности пользователя, то сайт остается на хороших местах выдачи.
В итоге выигрывают все: пользователь, вводящий запрос в поиск и удовлетворенный ответом; владелец молодого сайта, получивший долгожданный трафик; сам поисковик, улучшивший выдачу.
Наверняка, о следующих алгоритмах вы наслышаны, но нельзя не упомянуть о них в данной подборке. АГС-- и Минусинск - буквально в двух словах.
Скорее всего, вы слышали, что Яндекс отменил «отмену ссылочного» =) И в связи с этим ужесточил борьбу с SEO-ссылками:
Яндекс негативно относится к сайтам, продающим и покупающим ссылки. Вообще АГС направлен на борьбу с сайтами с малополезным контентом. Так причем тут ссылки?
8 сентября 2015 алгоритм АГС был обновлен. Теперь если на вашем сайте будет обнаружен малополезный контент или сайт будет уличен в продаже ссылок, то к нему могут быть применены ограничения в ранжировании и обнуление тИЦ.
Ни для кого не секрет, что тИЦ не влияет на ранжирование сайта. Так почему его обнуляют?
Кто покупал ссылки, тот знает, что при покупке ссылок особое внимание уделяется отбору площадок, в том числе характеристикам сайта-донора, среди которых немаловажное значение играет тИЦ. Соответственно желающих разместить ссылку на сайте с нулевым ТИЦ станет меньше.
Сразу возникают вопросы насчет нормы исходящих ссылок: «А сколько норма? Сколько можно продавать ссылок и не попасться?».
Лучше вообще не продавать =) Делайте полезные сайты для пользы людей, хватит засорять интернет! Если говорить о нормах исходящих ссылок, то в зависимости от сайта и уместности этих ссылок.
Если прямо нужны конкретные цифры, то можно рекомендовать: не более двух ссылок с одной страницы и не более чем на 30% страниц, находящихся в индексе Яндекса.
Санкции с сайта достаточно просто снимаются после удаления всех арендуемых ссылок и улучшения полезных свойств сайта.
Алгоритм Минусинск направлен на борьбу с SEO-ссылками. В основном речь идет именно о ссылках, купленных на биржах.
Если сайт будет уличен в покупке SEO-ссылок, его позиции просядут на 20-30 пунктов, трафик упадет.
Яндекс обложил со всех сторон: покупаешь ссылки - Минусинск, продаешь - АГС--.
Поэтому хватит искать волшебные таблетки в виде покупки и продажи ссылок, используйте комплексный подход :
Этап 1. Техническая и текстовая оптимизация (Title, description, sitemap, alt и т.д.)
Этап 2. Контент и юзабилити
Этап 3. Естественная ссылочная масса, в помощь крауд-маркетинг :
Этап 4. Работа с репутацией . Да-да, о вас должны говорить и говорить преимущественно хорошо.
Высоких позиций и довольных клиентов!
Пы.Сы. Успейте до 15 января! Активируйте пакет «Комбо » (для быстрого и эффективного продвижения сайта), получите скидку 2 903 руб. + 2 бонуса от партнеров!
При написании этой статьи я ориентировался на исследования Дмитрия Севальнева и прочих экспертов компании «Пиксель Плюс», где работал одно время. У Дмитрия много статей по этому поводу, собственно фильтры — это его главная «тема» и в основном можно обходиться лишь его исследованиями. Я же ставил перед собой цель структурировать информацию по фильтрам Яндекса, чтобы было удобно смотреть.
Фильтры Яндекса (а также других поисковых систем) делятся, прежде всего, на ручные и автоматические . Вообще классифицировать их можно по многим признакам, но в первую очередь нужно учесть это разделение.
Если уж и попадать, то предпочтительнее под автоматические санкции – они так же автоматом снимутся, как автоматом и были наложены. В случае же с ручными санкциями, скорее всего, предстоит долгая переписка с техподдержкой поисковика.
Ручные и автоматические санкции делятся, в свою очередь, на такие:
Классифицируя иначе, можно выделить 4 вида фильтров – текстовые, ссылочные, за накрутку поведенческих факторов и остальные (adult, АГС, аффилиаты, дорвеи, другие).
Кроме этого разделения и разделения на ручные и автоматические санкции есть ещё деление на предфильтры и постфильтры. Предфильтры накладываются еще до расчета релевантности сайта, на этапе попадания в базовый поиск, постфильтры же накладываются уже в процессе ранжирования. Ну и, наконец, санкции делятся на запросозависимые, подокументные и хостовые. Первые ведут к проседанию одного запроса, вторые - всех запросов со страницы, третьи - всех запросов со всего сайта.
Подробно о фильтрах:
Если же хотите вкратце (либо просто поглазеть на Лену Камскую), то вот другой видос:
Причинами санкций могут быть текстовое содержание, ссылки, реклама, искусственные накрутки и так далее. Кстати даже опытные продвиженцы могут рассуждать о фильтрах, когда на самом деле причина проседания более прозаична, так что давайте сразу разберемся.
Перед определением вида санкции и ее лечения следует, прежде всего, убедиться в наличии санкций. Возможно, продвигаемая страница не попала под санкции, а просто выпала из индекса. Если Яндекс не находит даже кусок текста со страницы, введенный в кавычках (или страницу по запросу вида url:site.ru/adres/stranicy.html ) – возможно, следует добавить страницу в инструменты вебмастера или, если не сработает, переписать текст.
Также возможно, что проседание позиций связано с изменением алгоритма ранжирования, в результате которого позиции большого числа сайтов были существенно изменены и наш сайт оказался среди их числа. Для определения этого требуется комплексно сравнить ТОП-10 выдачи по интересующему запросу «до» апдейта и «после» (с помощью инструмента «Анализ поискового запроса» в Megaindex ). Если существенно потерял позицию только наш документ, то это санкция. Если изменения по ТОП-10 более значительные (из ТОП-10 выпало 4 сайта, сменился сайт на 1 и 2 месте и так далее), то это с большой вероятностью алгоритм. Если мы определили, что продвигаемая страница по-прежнему находится в выдаче, а существенно изменил позицию в ТОПе только наш сайт, то мы с большой долей вероятности столкнулись с теми или иными санкциями.
Как один из вариантов причин проседания запроса – запрос мог поменять свой тип с точки зрения логики поисковой системы, и как следствие, выдача может сильно поменяться.
Текстовые фильтры делятся на запросозависимые и документозависимые. Первые ведут к проседанию в выдаче одного запроса или их группы, вторые – к проседанию всех запросов со страницы. В основном текстовые фильтры можно отнести к группе постфильтров, и в подавляющем большинстве случаев они накладываются автоматически. Но бывают и жестокие ручные текстовые санкции - в этом случае проседает, как правило, большая часть запросов с сайта или вообще все.
Большое видео с SEO-коучинга:
Если позиции плохие, и подозрения есть именно на текст (а не на наличие нетекстовых фильтров или хостовые факторы), тот тут такая схема работы:
Кстати, один из способов определить наличие фильтров - подать заявку на добавление сайта в Яндекс Каталог. Если есть санкции, то об этом поддержка Яндекса часто оповещает в качестве обоснования причин отказа принятия сайта в ЯК.
Наиболее часто встречаются фильтры «Переоптимизация» и «Фильтр Севальнева», еще есть фильтр за одинаковые сниппеты и «Ты последний», но с ними приходится сталкиваться не так часто.
Добавлю лишь, что Яндекс накладывает текстовые фильтры не только с учетом разных форм одного и того же слова, но и по корням слов. Многие считают, что фильтр может быть наложен, допустим, только за чрезмерное употребление слова «строительный» в разных формах, учитывая «строительных», «строительными» и так далее. Но санкции можно поймать и если с этим словом все будет в порядке, но будут присутствовать слова «стройка», «строить» и другие однокоренные, употребление которых и приведет к превышению порога спамности.
«Переспам» - один из первых текстовых фильтров Яндекса, направленных против чрезмерной оптимизации текстового содержимого страницы. Внедрен с февраля 2010 года, официально не анонсировался. Сегодня встречается не очень часто, поскольку постепенно уступает место «фильтру Севальнева» и «Переоптимизации». Сейчас новые сайты практически не ловят «Переспам». Через несколько лет данный фильтр окончательно уйдёт в прошлое. Хотя, возможно, есть тематики, где он еще применяется.
«Переспам» - запросозависимый фильтр; при нем проседает один запрос, обычно резко, на 20-40 позиций; по другим запросам документ нормально ранжируется.
Можно определить, введя в Яндекс модифицированную форму продвигаемого запроса (обычно морфологическую или перестановку слов). Скажем, вместо [грузоперевозки Рязань] – [грузоперевозка Рязань] или [Рязань грузоперевозки]. Если по переформулированному запросу наш сайт окажется в выдаче резко выше (например, был на 37 месте, а стал на 14) – скорее всего, наложен фильтр переспама, документ переспамлен по продвигаемому запросу. Точно говорить о наличии данной санкции можно, лишь если запрос растёт при нескольких модификациях (поскольку фильтр позапросный и накладывается на один запрос).
Избыточное количество чистых вхождений, акцент на заданной фразе в тексте, Title и анкорах входящих ссылок - всё это может быть причиной переспама.
Если сайт под фильтром, то методы его снятия могут быть следующие:
Обычно переспам снимается в первый же текстовый апдейт после переиндексации.
Сразу скажу, что ручная диагностика фильтров — дело трудоемкое. Профессиональные оптимизаторы пользуются для определения фильтров сервисом Саши Арсенкина .
«Переоптимизация» - это наиболее часто встречающийся сегодня текстовый фильтр Яндекса. Внедрен с сентября 2011 года, официальный анонс был в блоге Яндекса на ya.ru. По этому текстовому фильтру возникает больше всего вопросов, и вообще в ходе практики я наблюдал самое разное поведение запросов на страницах, где была диагностирована «Переоптимизация». В ходе статьи буду делать небольшие замечания по этому поводу.
Это документозависимый фильтр. Проседают все запросы, ведущие на страницу, например на 10-30 позиций; документ теряет большую часть поискового трафика с Яндекса; документ плохо ранжируется даже по длинным (4-5 слов) запросам. В этом по идее и есть главное отличие от «Переспама» - там проседает один запрос, тут - все запросы с одной страницы.
Вроде стройная теория, однако бывало, что на странице обнаруживался фильтр только по одному запросу, но «Переспам» и «Новый фильтр» не диагностировались. Вроде переоптимизация, но по одному запросу. И на таких страницах было наиболее тяжело снять фильтр. Мое личное мнение - если наблюдается такая фигня, то, скорее всего, контент просто хуже по качеству оформления, а не текстов, чем у конкурентов.
В отличие от того же «Переспама», здесь позиции запросов при переформулировке слов (перестановка или смена окончаний) не меняются или меняются незначительно. Но «Переоптимизацию» можно определить следующим образом:
Если при запросе такого вида наш сайт в выдаче окажется выше нескольких конкурентов, которые в выдаче по запросу без дополнительных операторов были выше нас, то, скорее всего, наложен фильтр переоптимизации. При этом лучше проверить именно несколько конкурентов – есть вероятность, что на единственного конкурента, с которым вы сравнивали свой сайт, также наложен фильтр, или же это будет крупный портал, с которым сравнивать нет смысла.
Вот еще видео-пример:
Несогласованный текст, несоответствие страницы ключевым словам (под которые она оптимизирована), переоптимизация контента (текста, Title).
Обычно требуется провести тот же комплекс мер, что и в случае с переспамом, но если он не поможет, принимаем более серьёзные меры:
Если в целом текст, допустим, некачественный и не тематический по отношению к продвигаемым ключам, состоит из большого числа слов из общего нетематического корпуса слов (слишком много вводных слов, длинные предложения, малое разнообразие частей речи, много прилагательных), то текст, возможно, придется переписать - просто чистка ключей может не помочь.
Переоптимизация обычно снимается через один-два текстовых апдейта после переиндексации.
В 2014 году начала наблюдаться ситуация, при которой запросы улетали за топ-200, и стандартные методы борьбы с текстовыми фильтрами не срабатывали. В итоге оптимизаторы пришли к выводу, что это новый текстовый фильтр Яндекса. Его в общем и назвали просто «новым фильтром», также в ходу наименования «текстовый антиспам» и «фильтр Севальнева», поскольку Дмитрий Севальнев из «Пиксель Плюс» был, возможно, первым, кто открыл и описал данную санкцию.
Сейчас уже далекий 2016, так что, я думаю, поздно называть этот фильтр «новым». Поэтому я его называю «севальневским» 🙂
Полная потеря трафика по запросу (возможно резкое проседание), чаще проседают именно группы запросов, но в целом можно говорить, что санкция накладывается не на весь документ, а позапросно. При этом, в отличие от «Переспама», при переформулировке позиция не растет, то есть можно предположить, что фильтр накладывается на все формы запроса. Часто проверка путем сравнения двух сайтов показывает, что наш сайт с 250 места выше по релевантности, чем сайт на 70-80 месте.
Определяется этот новый фильтр примерно так же, как и переоптимизация. Отличить от «Переоптимизации» можно по абсолютному числу потерянных позиций - в случае с фильтром «Переоптимизация» это 5-30 пунктов, в случае с «Новым» потеря оказывается значительно выше:
Из практики можно сделать вывод, что если сайт далеко за пределами топ-100 по запросу, но при посайтовом сравнении оказывается релевантнее запросу, чем сайты на 70-80-х местах, с большой долей вероятности мы имеем дело с «фильтром Севальнева».
В инструментах Сани Арсенкина фильтр проверяется там же, где и переоптимизация. У него инструмент «два в одном».
Для снятия «севальневского» текстового фильтра Яндекса рекомендуется делать тот же комплекс работ, что и для «Переспама» и «Переоптимизации», но дополнительно:
В случае если действия, описанные выше, после переиндексации документа и нескольких текстовых апдейтов поисковой выдачи Яндекса не принесли ожидаемого результата - рекомендуется полностью переписать текст.
Как я уже говорил, фильтры могут быть наложены за переспам однокоренными словами. То есть если максимально допустимое количество вхождений на страницу – 10, и у вас по 7 раз употреблены слова «печать» и «печатание», то за это может быть наложен текстовый фильтр, хотя слова по идее - разные.
Еще один момент – иногда, когда вроде как страница на первый взгляд не переспамлена, стоит посмотреть вхождения в исходном коде страницы. Их там на самом деле может оказаться дофига.
«Ты последний» - это, по большому счету, фильтр за неуникальный или неактуальный контент.
Причем «контент» тут не всегда значит «текст», за использование заведомо неуникальных шаблонов сайт тоже может попасть под этот фильтр.
Под этот фильтр попадают в основном умники, которые думают, что накопипастив кучу текстов, они сделают отличный сайт и на него повалит народ. То есть это новички, школьники и прочие лица в состоянии опьянения. Их опьяняют «интернетовские деньги», они как Стивен Абутмен из Южного парка. Помните?
Канада не получает достаточно денег! У других стран много денег, нам нужна часть этих денег! Как насчет… Как насчет интернета? Интернет делает много денег, так дайте нам часть этих денег! - Да! Дайте нам интернетовские деньги!
Но вместо интернетовских денег юные Гейтсы и Цукерберги получают фильтр «Ты последний».
Если вдруг сильно проседает трафик с Яндекса, но сайт продолжает нормально индексироваться - есть повод проверить сайт на предмет наличия данного фильтра. И, соответсвенно, если сайт индексируется, а трафика нет - тоже есть повод сделать то же самое.
Введите уникальный кусок текста из Title или со страницы в Яндекс (брать нужно страницу, которая есть в индексе). Если сайт не находится в числе первых - скорее всего, есть фильтр. Дополнительно проверьте уникальность текста через Advego Plagiatus или Etxt Antiplagiat. Но текст может быть неуникальным при условии, что Яндекс считает наш сайт первоисточником - если вводите кусок текста в кавычках и какой сайт на первом месте, тот и считается первоисточником.
Кроме неуникального контента причинами могут быть дублирующиеся тексты или куски текста на сайте.
Повышать уникальность текстов до 100%, избавляться от дублей внутри сайта. Легче всего просто заказать новые тексты. Кроме того:
Дублирование внутри сайта – это тоже дублирование контента. Важно также учитывать процент уникальных текстов на сайте (уникальных шинглов) относительно общего количества текстов. При ранжировании карточек товаров уникальность текста может не играть сильной роли (хотя в Google играет), но общая уникальность информации на сайте будет важна для нормального ранжирования. Также при ранжировании могут играть роль мономы (комбинации факторов), скажем (объём текста)/(время пользователя на странице). С дублями, описанными выше, можно бороться следующими методами:
Что же касается полных дублей страниц, их можно найти либо при помощи сканеров вроде Screaming Frog, либо через панель Вебмастера Google (Инструменты для веб-мастеров – Оптимизация HTML) и иногда Вебмастера Яндекс (Мои сайты – проверить URL). В случае со Screaming Frog полученные после сканирования данные выгружаются в Excel, дальше подсвечиваются одинаковые теги Title в файле – так можно вычислить дубли и их URL.
Чтобы получились «правильные» карточки товаров, необходимы:
Как вариант - можно еще просто убрать ключевые слова из всех текстов. При этом оставить их в Title, но сократить содержание последнего до трех слов или меньше. В этом случае спамность текстов будет нулевой. Ждем переиндексации, и после прошествии еще некоторого количества времени Яндекс должен снять фильтр. Желательно еще снять анкорные ссылки, если их много. После выхода сайта из-под фильтра можно потихоньку, понемногу возвращать ключи в тексты.
Яндекс исключает документ из выдачи, если его сниппет дублирует уже имеющийся в выдаче сниппет другого документа. Это и называется фильтром за одинаковые сниппеты.
Сюда же, кстати, входят и санкции за одинаковые Title.
Фильтр на одинаковые сниппеты наиболее характерен для товарных запросов и сайтов интернет-магазинов. Его назначение заключается в том, что с целью повышения разнообразия результатов выдачи Яндекса скрывается ряд похожих результатов. Предпочтение отдается тем документам, у которых сниппет (Title и текст описания) существенно отличается от уже представленных результатов.
Сайт полностью исчезает из выдачи по некоторым запросам, но если добавить в урл конструкцию &rd=0, появляется в результатах поиска.
Сниппет страницы полностью или почти полностью дублирует сниппет другой страницы, которая находится в топе.
Для снятия фильтра требуется:
Можно подумать, что если, мол, текст из сниппета уникальный, то фильтра быть не может. Но это неверно. Если по тексту из сниппета Яндекс ничего не находит - это ничего не значит. Сниппет обычно берется:
Теперь давайте по ссылочным фильтрам — постоянным спутникам плохих сеошников.
Мощный фильтр, запущенный в 2015 году и направленный против сайтов, которые покупают ссылки. Как Яндекс определяет, покупная ли ссылка? Намек на метод можно найти в Мадридском докладе. В самой сжатой форме - если сайт ссылается коммерческими анкорами («купить», «цена») на сайты разных тематик, то, вероятнее всего, он торгует ссылками. Но помимо всего прочего ничто не мешает Яндексу просто выгрузить базы ссылочных бирж. В целом про этот фильтр на момент июня 2015 года мало что известно.
Признаки: сайт проседает по всем запросам примерно на -14 позиций.
Причины: большое количество некачественных покупных ссылок (Сеопульт, Сапа и так далее).
Вот огромный экспертный видос по Минусинску:
Чтобы предотвратить ситуацию, когда сайт резко вырывается в топ чисто за счёт огромного количества покупных ссылок, введён данный фильтр. Штрафует акцепторов при наличии неестественно высокого темпа наращивания ссылочной массы. Доноры, участвующие во «взрыве», также помечаются как неблагонадежные.
Я не уверен, что с появлением Минусинска этот фильтр должен продолжать работу - ведь за покупные ссылки карает Минусинск, а за рост качественных ссылок не должны вообще накладываться санкции.
Однако Яндекс намекал, что во избежание покупок ссылок конкурентами с целью «завалить» врага под фильтр, покупными ссылками могут считаться лишь старые, так что с другой стороны, «Ссылочный взрыв» может еще оставаться в строю.
Признаки: сайт «залипает» на определенных позициях.
Причины: покупка большого количества ссылок в короткий период.
Ранее был одним из основных инструментов Яндекса для выявления покупных ссылок. Предусматривает различные типы санкций, применяемые к сайтам при манипулировании ссылочной массой (ссылочные кольца, прогоны и другие).
С выходом Минусинска пока непонятно, применяется ли сейчас.
Признаки: сайт резко понижается в выдаче по всем запросам.
Причины: абсолютное преобладание ГС в ссылочной массе.
Фильтр, созданный для борьбы с ГС, продающими ссылки. Ведёт к неучёту анкора и веса ссылки. То есть когда на сайт накладывается этот фильтр, ссылки с него начинают давать куда меньший эффект. Проверить всех своих доноров на наличие непота представляется практически нереальным, поэтому при покупке ссылок нужно предъявлять жесткие требования к донорам, отслеживать эффект от покупки, составлять блек и вайт листы.
Неучёт внутренних ссылочных связей при наличии избыточной (спамной) перелинковки внутри сайта. То есть польза от вашей внутренней перелинковки может пойти насмарку, если Яндекс посчитал ее спамной и наложил данную санкцию. Основная причина наложения фильтра - спамное содержание анкоров и их повышенная длина, однако причиной может быть и, допустим, отсутствие корректного оформления ссылок.
Используется для борьбы с накруткой поведенческих через биржи. Штрафует сайт за искусственное улучшение кликовых поведенческих факторов с применением мотивированного трафика или эмуляций действий пользователей в поисковой системе Яндекс. Ресурс продолжает нормально ранжироваться только по витальным и запросам с явным указанием URL-адресов с сайта. Поведенческие факторы являются ключевыми в ранжировании сайтов по средне- и высокочастотным запросам. И хотя их число исчисляется десятками, под пристальным прицелом оптимизаторов оказались наиболее значимые, а именно, так называемые кликовые факторы на страницах результатов выдачи:
Именно на искусственное улучшение данной группы факторов направлено большинство сервисов по накрутке. На текущий момент можно утверждать, что фильтр за накрутку кликовых поведенческих факторов функционирует в Яндексе наравне с прочими санкциям и применение данной технологии оптимизации подвергает сайт существенному риску потери позиций в срок от 6 месяцев и более.
Признаки: в некоторых случаях – понижение позиций сайта по части запросов. Срок – 1 год. Сейчас лучший способ диагностировать факт наложения фильтра - обращение в службу поддержки поисковой системы Яндекс через панель вебмастера.
Платоны прямо сообщают о факте применения данных санкций к сайту, что можно воспринимать как достоверное подтверждение и способ диагностики.
Рекомендуется, особенно в случае непричастности к актам искусственного улучшения поведенческих факторов, вступить в честный и аргументированный диалог, в котором открыто изложить свою позицию. В ряде случаев данные действия могут ускорить процесс снятия фильтра.
Причины: накрутка кликовых поведенческих факторов с целью повысить позиции сайта.
Позиция представителя Яндекса по фильтру за ПФ:
Факты накрутки и неучёта действий пользователей могут фиксироваться с помощью большого числа алгоритмических и статистических методов. Севальнев на проекте «Пиксель Плюс самостоятельно» рассказывал об одном из алгоритмов, который применяется также в антиспаме для функционирования санкции «Ссылочный взрыв»:
То есть выявляются все сайты, у которых неестественно большой рост, и сравниваются IP кликавших на них юзеров.
Кейс по работе с сайтами под ПФ-фильтром от Артура Латыпова и SEO-коучинга:
Тысячи их! Не возьмусь даже утверждать, что в этой статье я смогу описать их все.
Алгоритм АГС (официальной расшифровки нет, но мы-то знаем, что это означает «антиговносайт») был разработан для борьбы с некачественными сайтами (в Google похожую функцию имеет алгоритм Panda). То есть он направлен на ограничение в ранжировании и индексации сайтов, созданных не для пользователей. Впервые его влияние было замечено 1 ноября 2013 года. Официально анонсирован 6 ноября 2013 в блоге Яндекса: http://webmaster.ya.ru/16272 . Было несколько «волн» наложения санкций. База регулярно обновляется, ряд сайтов из-под санкций выходят, а ряд сайтов попадает под них. Ссылочные биржи и эксперты дают различные оценки – кто-то говорит, что от всей базы доноров в биржах под АГС находится 1% сайтов, кто-то – что 20% (в общем, от 1 до 20 процентов).
С апреля 2014 – обнуление тИЦ. Сейчас при попадании под АГС обнуляется тИЦ сайта (при проверке этого показателя через Яндекс Каталог сервис пишет, что тИЦ «не определен»), но сам сайт может оставаться в индексе Яндекса. Ранее же была распространена ситуация, когда большинство страниц вылетало из индекса, оставалось только от 1 до 101 страницы.. Через пару дней после попадания под действие алгоритма я написал в поддержку - мол, контент уникальный, веду блог для людей, что следует исправить? Платон думал 4 дня, а затем написал:
Здравствуйте, Марк!
Приносим извинения за задержку с ответом.
Я проверил, с сайтом все в порядке. тИЦ будет актуализирован при ближайшем пересчете.
То есть если есть уверенность, что сайт не должен был попасть под АГС, имеет смысл связаться с поддержкой.
Низкое качество сайта в целом, низкопробный контент.
Исследования показали, что наличие сайта в Яндекс.каталоге снижает вероятность попадания под АГС в 2,5 раза, в DMOZ – ещё выше, в 5,4 раза. YACA+DMOZ вместе же снижают вероятность попадания под АГС аж в 40 раз. Также хороший знак здесь – наличие Яндекс.директ. Что касается торговли временными/арендными ссылками, то одни говорят, что такая деятельность не влияет на попадание сайта под АГС, другие же считают, что это одна из основных причин попадания под действие алгоритма. Посещаемость же должна влиять куда однозначнее – при исследовании 6986 сайтов наблюдалось резкое падение доли сайтов под АГС среди сайтов с посещаемостью более 150 посетителей и особенно более 300 посетителей в сутки.
Презентация Дмитрия Севальнева по более полному исследованию АГС:
Вот кстати как писать в ТП:
На коммерческих сайтах опасность попадания под АГС присутствует, если:
Для вывода коммерческого сайта из-под АГС нужны:
Вот кстати как писать в ТП:
Что требуется для вывода информационного сайта из-под АГС:
Еще советы по выходу из-под фильтра:
Я знаю одного вебмастера, который спец именно по выходу из-под АГС. Если все перепробовали, и не помогло — пишите мне, дам контакты.
Яндекс склеивает похожие сайты, если есть подозрение на то, что у них один и тот же владелец. В итоге из всей группы аффилированных сайтов в зоне видимости в выдаче по запросу остаётся только один. Я лично не слышал, чтобы фильтр накладывался на информационные сайты, кстати говоря. Также аффилированность сайтов не является отягощающим фактором при продвижении:
То есть если у вас сайт продвигается по запросам группы [вызов газовщика на дом], а еще один сайт - по запросам в стиле [вызов деда мороза на дом], и при этом вы аффилированы, то обоим сайтам будет на это наплевать - они просто не почувствуют склейки.
Полное исчезновение сайта из выдачи по нескольким запросам, которые до этого были в топе или близко к нему. Также если сайт продвигается плохо даже после проведенных по нему работ – большинство запросов в выдаче за топ-100, но часть запросов при этом растёт, есть вероятность, что существует его аффилиат, который и виден по тем запросам, по которым наш сайт не продвигается. При этом по разным запросам и в разных регионах наиболее релевантными могут быть разные сайты.
Вот еще способ определения от Игоря Бакалова:
Продвижение сайтов одного владельца по одинаковым/пересекающимся запросам в одном регионе.
Аффилированность Яндекс вычисляет через контактные данные, дублированный каталог услуг и цен (даже сайты просто с одинаковыми ценами Яндекс может определять как аффилированные), данные регистрации доменов, html вёрстку и cms сайта. На 98-99% аффилированных сайтов санкции налагаются автоматически, но аффилированность может быть и ручная.
Как избежать аффилированности (склейки сайтов в группу)?
Сайты не попадут под фильтр аффилиатов, если, допустим, у них только IP одинаковый. Но если пользоваться при этом сервисами – например, одним кошельком, то шанс попасть под аффилированность повышается. Как в таком случае быть, если оптимизатор продвигает похожие сайты? Тут может быть такой выход – оформить ИП, и тогда можно пользоваться одним аккаунтом в сервисах для работы с клиентскими сайтами.
Сначала требуется проверить наличие фильтра на одинаковые сниппеты, если такой фильтр обнаружен – аффилированности по запросу нет.
Быстро выявить афиллированность по запросу можно следующим образом:
Имеется также старая база аффилиатов по Яндексу: http://tools.promosite.ru/old/clones.php Можно вбить в Яндекс номер телефона, адрес или почту, добавить ~~ site:nashsite.ru.
В случае автоматических санкций устраняем все причины:
Затем ждём – фильтр снимается автоматически. В случае наложения ручных санкций нужно проделать всё то же самое, но уже не ждать, а писать в техподдержку, присылать сканы свидетельств о регистрации, договоров аренды и так далее.
Накладывается из-за наличия на сайте агрессивной рекламы. Понижает в ранжировании сайты с избыточным рекламным содержимым (pop-up, кликандер и другие). Причинами также могут быть наличие агрессивной рекламы, вызывающих тизеров, всплывающих окон, кликандеров. Иногда понижаются сайты с обманным содержимым во всплывающих окнах, уведомлениях.
Для снятия фильтра за некорректное рекламное содержимое требуется произвести смену размещаемых рекламных материалов или подключенной партнерской программы и дождаться полноценной переиндексации ресурса. Для ускорения процесса рекомендуется после внесения существенных изменений на сайте сообщить об этом в службу поддержки поисковой системы через панель вебмастера.
Ранжирует ниже сайты, монетизирующиеся партнерками и при этом не дающие дополнительной ценности пользователям. Это могут быть, к примеру, нераскрученные купонники, на которых нет ничего, кроме кодов партнерских программ.
Исключает из индексации спам-сайты, направленные исключительно на привлечение трафика обманными техниками, среди них могут быть:
Фильтрация сайтов для взрослых из выдачи не по адалт-запросам. Сайт полностью исчезает из выдачи по всем запросам, кроме «взрослых», что сопровождается резким снижением трафика (если под него попал, допустим, коммерческий сайт). Сайт фигурирует в выдаче только по запросам с явным adult-контентом. Причины - наличие взрослого контента, ссылки на adult-ресурсы, реклама взрослых сайтов.
Я еще слышал информацию, что сайт может быть пессимизирован из-за плохих поведенческих, но подробнее рассказать, каким образом это происходит, пока не могу. Постараюсь обновлять данную статью и быть в курсе всех технологий Яндекса, направленных против неестественного влияния на выдачу. Да, и если связаться с поддержкой Яндекса не получается - пишите на
С каждым годом известные поисковые системы оптимизируют поиск и делают его лучшим для людей. Роботы поисковых систем учатся работать не только с ключевыми словами и заголовками, а так же и с самим контентом, который будет просматривать посетитель. То есть СЕО оптимизация уже начинает уходить на второй план. Поисковые системы настраиваются на то, что теперь главное в ранжировании — это качество текста. Яндекс в такой новой политике поисковиков не является исключением. Уже существует немало поисковых роботов российской поисковой системы, которые работают исключительно с текстом страницы сайта.
Именно поэтому страницы вашего сайта, даже самые оптимизированные по ключевым словам и заголовкам, могут начать резко терять позиции в поисковой выдаче, а всё из-за новых текстовых фильтров Яндекса. Эти фильтры могут понизить в выдаче страницы или вовсе их оттуда убрать, если посчитают контент некачественным для пользователей.
1. Сайт начинает терять позиции в поисковой выдаче или вовсе исчезает из поиска. Конкуренты, у которых не были оптимизированы заголовки и ключи поднимаются выше вас.
2. Терять позиции начал не весь сайт, а некоторые запросы, при этом, в остальных направлениях сайта с выдачей всё хорошо. Порой это связано с тем, что алгоритмы проверяют сайт по страницам и некоторые из них он попросту еще не проверил.
3. Ну и если вы видоизмените запрос. Даже незначительно, а на ранжирование это не повлияет, то ваш сайт точно попал под текстовый фильтр Яндекса. Дело в том, что остальные фильтры поисковой системы работают исключительно с запросами и заголовками и их изменение точно бы повлияло на ранжирование. А вот если ничего не произошло, то всё дело именно в контенте.
Если вы уверены, что страницы теряют позиции в поисковых системах из-за некачественного текста, то не стоит опускать руки. Есть несколько способов решения проблемы, которые возможно могут помочь.
1. В мета теге title нужно сократить длину и количество ключей.
2. В последнее время Яндекс начал любить короткие тексты, которые несут только нужную информацию. Поэтому нужно сократить текст на 20-30%, и по возможности уменьшить количество воды.
3. Ключевые слова нужно распределить равномерно по тексту.
Если же эти действия не помогли продвинуть сайт в выдаче, то не остается ничего, как написать текст заново, учитывая все вышеперечисленные правила. Спешить не стоит, нужно подождать пару недель перед тем, как приступить к написанию нового текста. Сегодня текстовые фильтры работают ещё очень медленно, поэтому нужно немного подождать. Если вы увидите, что через несколько недель страницы сайта незначительно поднялись в выдаче или вовсе упали, то нужен новый текст.
Мы выпустили новую книгу «Контент-маркетинг в социальных сетях: Как засесть в голову подписчиков и влюбить их в свой бренд».
Санкции и различные фильтры Яндекс вводит не просто так, а для того, чтобы в результатах поиска были качественные сайты и только качественные. Но! Мир несправедлив и зачастую санкции задевают и нормальные сайты. Также бывает, что из-за субъективной оценки вебмастера не умышленно нарушают правила поисковых систем.
Мы собрали описания всех фильтров и санкций Яндекса для того чтобы рассказать вам, как выйти из-под них и как проверить, что они есть.
Если контактная информация на двух страницах сайт1.ру и сайт2.ру совпадает (частично или полностью), Яндекс считает эти сайты или принадлежащими одной компании. Яндекс по-особому относится к взаимосвязанным страницам, и если сайты определены как аффилированные, то поисковик не покажет их на одной странице в поисковой выдаче по одному и тому же запросу. И если вы будете искать определенную информацию по ключевому слову, то в поисковой выдаче не будет одновременно отображаться сайт1.ру и сайт2.ру, это попросту невозможно.
Это дает понять, что продвижение аффилированных сайтов с помощью пересекающихся списков поисковых запросов не даст никакого результата. Увы и ах, получить дополнительные места в ТОП-10 поисковой выдачи вам не удастся.
Если избежать совпадений в ключевых словах, то еще можно будет занять несколько мест в первой десятке поисковой выдачи по определенному запросу.
Какая именно из двух страниц будет отображаться в результатах поиска?
Первым будет показан более релевантный сайт. Та страница, которую Яндекс посчитает подходящей для пользователя, использовавшего определенный поисковый запрос. Несколько причин, по которым будет показан сайт1.ру вместо сайт2.ру:
Довольно часто фильтр аффилиатов не пропускает страницы крупных компаний, это случается из-за того, что они пытаются создать достаточно большое количество сайтов (для регионов или отдельных городов).
Чаще всего фильтр применяется автоматически (если у страниц совпадают определенные факторы). Эти санкции снимаются точно так же, как и накладываются - автоматически. Писать в службу поддержки и что-то объяснять просто бесполезно, лучше попытаться устранить причины и ждать снятия санкций.
Зачастую Яндекс считает сайты аффилированными даже из-за совпадения описания определенных товаров или при похожих доменных именах, а иногда даже по URL! Необязательно чтобы совпадала контактная информация. А если совпадают регистрационные данные доменов или хостинга, то это может еще больше усугубить ситуацию.
Почти нереально поднять недавно созданный сайт в ТОП по определенным конкурентным запросам. Данный фильтр многие считают нелогичным и достаточно несправедливым, называя его ужасной недоработкой и технической слабостью Яндекса.
В этом случае стремление поисковых систем к борьбе с дорвеями не привело ни к чему хорошему. Некачественных страниц в поисковой выдаче не стало меньше, фильтр по большей части вредит действительно качественным страницам, которые могут релевантно удовлетворить запросы пользователей.
Новые сайты почти всегда попадают под этот фильтр, что, повторюсь, очень несправедливо. Надеемся, что когда-нибудь разработчики изменят свое видение этого фильтра.
А пока молодые сайты почти не имеют шансов на быстрое продвижение по конкурентным запросам. Лучше всего продвигать молодые проекты постепенно и не гнаться за быстрым продвижением и соответственно быстрой прибылью.
Нужно начать с низкочастотных запросов, затем постепенно перейти к среднечастотным. Тем, кто торопится начать работу с высокочастотными запросами, лучше всего подождать, и вступать в серьезную игру не раньше чем через год (с момента начала продвижения нового проекта). Это позволит автоматически вывести сайт из-под фильтра.
Яндекс уже давно учитывает поведенческие факторы в ранжировании сайтов, это заставляет оптимизаторов проводить различные эксперименты с накруткой данного показателя. Для этого используют специальные системы накликивания, которые имитируют поведение реальных пользователей в органической выдаче Яндекса и на страницах сайта.
Цель Яндекса - убрать с органической выдачи страницы, на которых использованы системы накрутки ПФ.
На самом же деле, единственная цель - наказать сайты, которые этим занимаются.
Что мы видим, когда поисковик применяет такого рода санкции? Позиции по коммерческому запросу резко падают, снижается объем трафика, который поступает из Яндекса.
Нужно просто перестать использовать программы для накручивания ПФ, сделать так, чтобы сайт был интересен людям, а не роботам. И, конечно же, написать об этом в поддержку Яндексу. Вдруг повезет.
Данный алгоритм работает по очень интересному принципу. Робот определяет запросы, которые могут помочь в поиске страницы. Если страница оптимизирована под "п*рн" запрос (присутствие определенных фраз или контента), то такой сайт не может отображаться в обычной выдаче.
Пользователям будет не очень приятно увидеть такие сайты, если, конечно же, они их не искали. Значит, для решения вопроса достаточно просто пересмотреть контент своей страницы, тогда фильтр автоматически будет снят.
Хочу отметить, что фильтр применяется достаточно странно и неоднозначно: он часто влияет на страницы, которые сами по себе не являются "п*рн" страницами. На них могут быть размещены определенные баннеры, которые ведут на сайты знакомств. Робот принимает это за адалт и понижает позиции страницы.
Фильтр очень плохо отрегулирован, часто он умудряется затронуть сайты, на которых просто написаны определенные стоп-слова.
Единственный выход - полное удаление хоть какого-то намека на "п*рн" контент. Удалять нужно и рекламу, и новости и даже определенные комментарии.
Как ограничить влияние искусственных ссылок на процесс ранжирования?
В сентябре 2010 года разработчики Яндекса решил внедрить дополнительный комплекс мер (в дополнение к уже существующему фильтру, который понижает позиции страниц, продвигающихся только за счет покупки некачественных ссылок с различных " "), который позволят исключить из ТОПа похожие страницы. Многие продвигались с помощью покупки довольно дешевых ссылок, теперь это будет тяжело осуществить, ведь такие ссылки резко потеряют в эффективности.
Фильтр применяется исключительно для тех страниц, которые продают ссылки, санкции не касаются продвигаемых ресурсов. Достаточно просто отказаться от массовой продажи ссылок с ГС.
Очень важно постепенно менять ссылочную массу. Оптимальным вариантом будет покупка качественных ссылок с проверенных ресурсов, и постепенная замена ими старых, некачественных ссылок.
Такое название он получил от самих оптимизаторов, и досталось оно фильтру из-за его основного симптома. По любым уникальным фразам со страницы и по доменам он всегда занимал последнее место в поисковой выдаче. Сейчас этот фильтр стал более совершенным, его уже нельзя определить по домену в выдаче. Он стал очень похож на довольно известный фильтр в Google - “Supplemental” (которого сейчас в Google нет).
Задача фильтра - избавлять поисковую выдачу от устарелых, нерелевантных и попросту ненужных страниц.
Симптомы, по которым его можно обнаружить, - заметное падение трафика от Яндекса Сайт останется нормально проиндексированным, а страницы также будут отображаться в выдаче.
Достаточно ввести в поисковую строку фразу, которая находится у вас в title, или какой-то кусок текста, являющий уникальным. Если вашего сайта не будет в первой десятке - вы попали под "ты последний".
Лучшим лекарством считается тотальная переработка страницы, нужно поменять дизайн и содержимое.
Это название было придумано самими оптимизаторами: оно быстро и намертво прицепилось, и теперь этот фильтр известен только как "ты спамный". В чем главная опасность такого фильтра? Если его применить к определенному запросу, при каждой новой выдаче он будет терять все больше позиций и падать все ниже. Не каждый запрос просядет, фильтр коснется только пары «запрос-страница». Довольно часто он затрагивает только СЧ и ВЧ запросы.
Нужно внимательно следить за каждым апдейтом выдачи, который проводит Яндекс. Проверять позиции нужно на регулярной основе. Падения незначительные - ничего страшного, но если ситуация только ухудшается, будьте уверены, действует "ты спамный".
Место продвигаемой страницы заняла другая, которую поисковые роботы Яндекса считают более релевантной. Существует способ проверки: в расширенном поиске нужно указать запрос с данными вашего сайта. Если в результатах ваша страница не будет первой, то "ты спамный" действует во всю мощь.
Можно подставить к определенному запросу стоп-слова. Возьмите продвигаемый запрос и проверьте его в поиске, затем добавьте слеш и повторите проверку. Если фраза без стоп-слова ниже, чем без слеша - фильтр применяется к этой странице. Также актуальной будет проверка с использованием определенных словоформ. Можно вбить запрос, которого нет в тексте и который не является продвигаемым, к примеру "продвижения страниц", если он окажется выше, чем "продвижение страниц", значит фильтр точно применяется по отношению к данному сайту.
Один из самых легких фильтров, выйти из под которого довольно не сложно.
Этот фильтр является единственным в своем роде. Его уникальность в том, что разработчики не только не открещиваются от его создания и существования, но еще и постоянно комментируют все вопросы, которые касаются .
Разработчики заявляют, что фильтр создан для исключения из поисковой выдачи страниц, который утратили свою ценность для пользователей. Но в действительности - фильтр просто ограничивает влияние таких страниц на ранжирование и его результаты.
Симптомы фильтра: индекс может содержать 7-10 страниц сайта. Как проверить, не коснулся ли вашего сайта именно этот фильтр?
Достаточно ввести URL своей страницы . Если в показанных результатах будет меньше 10 страниц, но на самом деле их больше, то скорее всего фильтр АГС действует.
В настоящее время Яндекс обнуляет ТИЦ, но не выкидывает страницы из выдачи.
Факторы, привлекающие внимание данного фильтра:
Разработчики заявляют, что фильтр учитывает гораздо больше показателей и этот список далеко не полный. Но все эти характеристики свидетельствуют о том, что вы владелец "говносайта", который является нерелевантным.
Если фильтр "накрыл" хороший и полезный ресурс, лучше всего обратиться к Платону, использовав панель Вебмастера. Если сайт плохой, лучше забыть о нем, или попытаться сделать все, чтобы фильтр был снят автоматически.
Каждую из санкций накладывают по определенным причинам. Также они имеют свое определение и причины, по которым они могут быть сняты.
Официально фильтр "Переоптимизация" анонсировали в 2011 году, в сентябре. Функционировать он начал гораздо позднее.
"Переспам" никогда не анонсировали официально, но это не помешало появления дискуссии, которая развернулась почти на 160 страниц. Площадкой для споров стал форум SearchEngines, который обрел огромную популярность после ожесточенных дискуссий. Функционировать фильтр начал в 2010 году.
Как можно определить тип фильтра, который был применен к продвигаемому запросу или документу?
Случилось резкое проседание одного продвигаемого запроса, он упал на 15-35 мест. Вполне возможно, что произошло изменение релевантной страницы, но в индексе все еще находится старая версия страницы.
Позицию сайта можно улучшить, если немного модифицировать продвигаемый запрос. Базовою версию [продвижение страниц самостоятельно] на [продвижение страницы самостоятельно] или на [страниц продвижение самостоятельно].
Это позволит оставить документ на приемлемой позиции по определенным запросам, которые будут вести на него. Выдача Яндекса продолжает давать ему относительно нормальный трафик, но произошло существенно ухудшение позиции основного запроса (она снизилась на текстовый АП).
Позиции продвигаемой страницы почти не меняются, несмотря на модификацию запроса (если поменять окончание), который будет вести к одному и тому же документу.
Случилось резкое проседание всей группы запросов, которые продвигали на один документ. Результатом падения стала потеря примерно 20 пунктов. Могло произойти изменение наиболее релевантной в выдаче страницы, по определенным запросам, но сам сайт по-прежнему в индексе.
Документ потерял определенный объем входящего трафика. Произошло проседание в конец первой страницы Топ-10.
Переоптимизация - санкция, которая накладывается на весь документ, ее нельзя считать запросозависимой. Штраф можно считать довольно несущественным. Определенные запросы могут остаться на первой странице поисковой выдачи.
Переспам - фильтр, который накладывается на определенную продвигаемую фразу. Данный фильтр является документозависимым и запросозависимым. Санкция будет незамедлительно снята, если немного модифицировать запрос. Штраф может оказаться существенным, возможна потеря 35 позиций.
Фильтр "Переспам" в основном накладывается всего на несколько запросов, достаточно просто изменить запрос, это повлечет за собой и соответствующее изменение позиций в выдаче.
Раньше фильтр снимали при помощи таких изменений: [поисковые запросы/] или [поисковые запросы ~~ чтопопало12367ghd], это помогало значительно улучшить позицию документа. Но сейчас это невозможно технически.
"Переоптимизация" будет снята, если использовать расширенный поиск. Нужно провести сравнение по релевантности между вашим сайтом, и страницей, находящейся немного выше в выдаче. В этом вам может помочь документированный язык поискового запроса Яндекс. Если ваша страница ниже страницы конкурента по продвигаемым запросам, то стоит применить расширенный поиск, если ваш проект окажется более релевантным - это может означать, что вы имеете дело с переоптимиацией.