Проверка на фильтры поисковых систем. Инструменты определения санкций поисковых систем
Поисковые системы "чистят" интернет-пространство от некачественных, использующих "черные" приемы СЕО-продвижения сайтов. С этой целью время от времени вводятся новые алгоритмы поисковых систем, каждый из которых направлен на определенное нарушение. Далее к сайту применяются санкции, ограничивающие его работу.
Своевременная диагностика и вывод из-под фильтра поможет сохранить работоспособность сайта и прибыль его владельца.
Как узнать, что сайт попал под фильтр
Признаками подпадания сайта под фильтр являются:
Как проверить фильтры поисковиков
Существуют специальные инструменты веб-аналитики, благодаря которым можно подтвердить догадки о наложении фильтра:
- число страниц в индексе поисковых систем можно проверить через Яндекс.Вебмастер или Search Console Google;
- посмотреть изменения в трафике после обновлений алгоритмов Яндекса и Google можно посредством инструмента "Диагностика санкций SEOLib", у Google — инструмент Fruition;
- вероятность наложения фильтров на сайт, не использующих системы аналитики, возможно узнать, воспользовавшись сервисом FEInternational.
Виды фильтров
Выделяют несколько классификаций фильтров:
1. По поисковой системе, к которой они относятся, выделяют фильтры Яндекс и Google.
2. По причине наложения фильтра различают:
- фильтры за техническое несоответствие ресурса: неадаптированные ресурсы, отсутствие полезного контента, дублирование содержимого, мошенничество, медленная загрузка страниц, некачественный дизайн, низкий уровень функционала;
- фильтры, налагаемые за манипуляцию выдачи: накрутка поведенческих факторов, переспам ключевиков в тексте, большая ссылочная масса.
3. По способу включения:
- ручные — включаются сотрудником поисковых систем после фиксации нарушения роботом, этот вариант возможен при подозрении на нарушение, вердикт о наложении фильтра выносит человек;
- алгоритмические — включаются машинами при явном нарушении, зафиксированном роботами поисковых систем.
Фильтры Яндекса
С определенного времени Яндекс не учитывает внешние ссылки при "распределении" позиций выдачи. Но у него есть другие методы выявления недобропорядочных оптимизаторов. Теперь он сосредоточил свое внимание на попытках накрутки поведенческих факторов.
- АГС — самый известный фильтр Яндекса. Используется для борьбы с некачественными сайтами.
Некачественность сайта
определяется по следующим критериям:
- неуникальные тексты;
- проблемы с функционалом, дизайном;
- наличие исходящих ссылок;
- реклама агрессивного характера, дубликаты страниц, клоакинг;
- неуникальные описания страниц.
Наложение на сайт этого фильтра можно определить по следующим признакам:
- не происходит индексация новых страниц;
- количество посетителей снижается;
- большая часть страниц выпадает из индекса.
Для восстановления сайта после воздействия на него фильтра АГС необходимо принять следующие меры:
- привести сайт в соответствие требованиям;
- удалить все СЕО-ссылки;
- начать регулярно выкладывать на сайт только уникальные тексты;
- пересмотреть навигацию;
- удалить агрессивную рекламу.
Вывод сайта из-под АГС может занять до нескольких месяцев.
Фильтр за переоптимизацию
Под этот фильтр попадают сайты, занимающиеся выкладкой текстов с переспамом ключевых слов.
Что нужно делать, чтобы избежать "наказания" Яндекса:
- тексты должны создаваться для людей, а не для роботов;
- не нужно выделять ключи тегами.
Фильтр за накрутку поведенческих метрик
Фильтр за накрутку поведенческих метрик выявляет сайты, пользующиеся услугами сервисов эмуляции действий посетителей ресурса.
Обычно наложение данного фильтра проявляется следующим образом:
- трафик снижается;
- позиция сайта в поисковой выдаче падает;
- новые страницы очень медленно индексируются системой.
Чтобы снять данный фильтр, нужно перестать манипулировать поисковой выдачей.
«Минусинск»
Этот фильтр накладывается поисковой системой Яндекс за превышение ссылочной массы.
Идентифицировать действие фильтра можно по нескольким признакам:
- падение трафика;
- отсутствие сайта на первой странице поиска при запросе по доменному имени;
- "уход" на несколько позиций вниз в выдаче.
Чтобы снять с сайта данный фильтр, придется удалить все входящие ссылки манипулятивного характера.
Фильтр аффилиатов
Наложением фильтра аффилиатов Яндекс "отмечает" сайты, имеющие три и более сайта, привлекающих клиентов в одну и ту же организацию. Яндекс этого не одобряет. Занимаются места в поисковой выдаче, которые могли бы занять другие организации.
Единственный признак, по которому можно определить действие данного фильтра — присутствие в поисковой выдаче Яндекса одного-единственного сайта из всех созданных. При этом Яндекс не спрашивает, какой из этих ресурсов приносит большую прибыль, и выбрать наиболее ценный, чтобы оставить его в выдаче, не получится.
Избежать меры воздействия можно при условии создания сайтов, имеющих контакты одной фирмы, с предложением разных продуктов, тогда посетители будут переходить на эти сайты по разным поисковым запросам, и поисковую систему это вполне устроит.
Непот-фильтр
Поисковая система не признает, что этот вид фильтра существует. Но среди владельцев сайтов "ходят" догадки о наличии алгоритма, блокирующего передачу ссылок и приостанавливающего работу сайта.
Обезопасить себя от непот-фильтра возможно 2 способами:
- не торговать ссылками;
- при вставке ссылки на сомнительного рода источник, прятать линк под атрибутом nofollow.
Фильтр за adult-контент
При обнаружении Яндексом наличия на сайте материалов "для взрослых" им будет наложено табу на трафик сайта по запросам, отличным от "взрослых".
Здесь метод стар и прост как мир — не нужно использовать adult-контент на своем сайте.
Фильтр за дорвеи
Наличие дорвеев обычно приводит к исключению сайта из выдачи поисковой системы.
Оптимальный способ защиты сайта от наложения фильтра — не использовать дорвеи.
Фильтры Google
Фильтры Google также направлены на повышение качества сайтов, возможности молодых "хороших" сайтов занимать верхние позиции выдачи, борьбу с нарушителями.
«Панда»
Этот вид фильтра уменьшает количество посетителей некачественных ресурсов с целью посещения ими сайтов качественных.
За качественные принимаются ресурсы, отвечающие нескольким критериям:
- Качество содержимого сайта.
- Отношение к посетителям сайта, проявляющееся в уровне функционального удобства, юзабилити, дизайна.
- Отсутствие чужого и дублирующего контента.
Определить, что сайт попал под фильтр "Панда", можно по следующим признакам:
- падение трафика;
- снижение позиций в выдаче, могут изменяться позиции всех или нескольких страниц ресурса, возможно выпадение некоторых страниц в дополнительный индекс;
- медленное индексирование страниц.
Изменение стратегии маркетинга поможет преодолеет барьеры, возникшие в результате наложения фильтра. Особое внимание нужно уделить:
- Контенту. Он должен быть полезным аудитории, достаточного объема. Его необходимо регулярно обновлять. Сайт не должен содержать страниц без текста и страниц-дубликатов.
- Корректировке технических характеристик сайта.
«Пингвин»
Алгоритм "Пингвин" был внедрен с целью борьбы с избыточной ссылочной массой:
- спамом;
- публикацией ссылок, не видимых посетителю сайта;
- ссылками на сторонних ресурсах;
- покупкой бэклинков.
"Опознать" данный фильтр можно по следующим признакам:
- медленная индексация новых страниц;
- выпадение некоторых страниц в дополнительный индекс;
- снижение сайта в позициях поисковой выдачи;
- резкое уменьшение количества посетителей сайта.
Google выдает сообщение о принятых специалистами системы мерах, связанных с большим количеством ссылок.
Вывести ресурс из-под фильтра "Пингвин" поможет удаление и/или отклонение некачественных ссылок на сайт, публикация информативного уникального контента. ля обнуления веса ссылок можно воспользоваться специальным инструментом отклонения.
«Песочница» и «Возраст домена»
Это, скорее, части алгоритма, накладывающие ограничения по скорости индексации на недавно созданные сайты. На них можно не обращать особого внимания, заниматься развитием сайта в плане его качества, удобства и информативности для пользователя. Постепенно сайт выйдет из-под действия данных фильтров.
-5, -30, -950
Снижение позиции выдачи на 5, 30 пунктов, снижение позиции до 9 сотни выдачи оптимизаторы называют фильтрами -5, -30 и -950 соответственно, хотя официальных подтверждений существования таких алгоритмов от Google нет до сих пор.
Такие фильтры "поисковик" накладывает на сайты, нарушающие тех. требования, и использующие манипулятивные техники в привлечении посетителей:
- спам посредством размещения ссылок в блогах и на форумах;
- методы продвижения посредством дорвеев и клоакинга;
- неинтересный текст, пресыщенный ключевыми словами.
Снятие фильтров и возврат к прежним позициям в выдаче возможны после устранения нарушений требований Google и переиндексации сайта.
Дополнительные результаты
"Поисковик " может поместить страницы сайта в дополнительный индекс:
- если "считает" страницы неинтересными, неуникальными, похожими на многие другие по данной теме;
- если они имеют ошибки в техническом исполнении или происходит манипуляция выдачи;
- если сайт совсем "молодой".
Признак здесь один, он очевиден — ранжирование страниц не в основном, а в дополнительном индексе.
Чтобы вывести сайт из доп.индекса, необходимо вывести сайт на уровень технических требований поисковой системы, начать публиковать информативный актуальный контент, не манипулировать выдачей.
«Социтирование»
При возникновении такой проблемы нужно удалить либо обнулить вес подобных ссылок на сайт. Если становится очевидным, что это "происки конкурентов", можно сообщить о ситуации в тех.поддержку Google.
«Слишком много ссылок и страниц»
Слишком много ссылок на сайт на сторонних ресурсах либо выкладка большого числа страниц может вызвать такие последствия, как снижение позиции в выдаче и, как следствие, снижение посещаемости сайта.
Для предупреждения такого развития событий нужно отказаться от внешних ссылок, а страницы выкладывать постепенно.
Фильтр за битые ссылки
Для того, чтобы предотвратить меры воздействия системы поиска, необходимо регулярно проверять сайт инструментом Link Checker и исправлять обнаруженные битые ссылки.
Сайты, считающие возможным копирование контента с других ресурсов, могут попасть под действие фильтра, что повлечет за собой исключение сайта полностью или части его страниц из поисковой выдачи.
После удаления чужих текстов с сайта либо указания ссылок на первоисточник нужно начать заполнять сайт уникальными материалами.
Фильтр за переоптимизацию
Наложение системой фильтра за переоптимизацию происходит, если сайт манипулирует выдачей:
- в текстах избыточное количество ключевых слов;
- ключевые фразы выделены полужирным или цветным шрифтом.
Признаком действия ограничения системы является снижение позиции сайта в выдаче.
Для снятия фильтра необходимо отказаться от манипуляций и начать создавать материалы на сайт для людей, а не для поисковых систем.
Фильтр за медленную загрузку страниц
Если страницы сайта загружаются медленно, это не удовлетворяет посетителей сайта. Такие ресурсы Google обычно лишает трафика. Происходит это посредством снижения позиции сайта в общей выдаче, либо в мобильной выдаче.
Увеличение скорости загрузки сайта исправит сложившуюся ситуацию.
Фильтр за отсутствие оптимизации под мобильный трафик
Отсутствие адаптивной верстки тоже сказывается не лучшим образом на продвижении сайта. Признаком наложения данного фильтра будет падение позиций сайта в мобильной выдаче, при этом позиции в выдаче общей сохранятся на прежнем уровне.
Чтобы такой проблемы не возникло, специалисты рекомендуют изначально делать сайт адаптивного дизайна.
Чек-лист по фильтрам
Причины подпадания под фильтр | Фильтры «Яндекс» | Фильтры Google | Как вывести сайт из-под фильтра |
Минусинск | Удаление некачественных ссылок, отклонение ссылок специальным инструментом Google |
||
Заимствование чужого контента, неуникальные тексты | Фильтр за дубликаты страниц | Фильтр за дублированный контент Дополнительные результаты | Снятие неуникальных текстов, создание качественного контента |
Низкая функциональность, плохой дизайн, неудобная навигация | Дополнительные результаты | Корректировка сайта для большего удобства и комфорта пользователя |
|
Переспам по "ключам" | Фильтр за переоптимизацию | Начать делать упор не на SEO-приемы, а на информативность и актуальность текстов |
|
Несоответствие тех.требованиям поисковой системы | Фильтр за некорректные мобильные редиректы | Отсутствие оптимизации под мобильный трафик | Приведение сайта в соответствие требованиям «поисковиков». |
Продажа ссылок | Непот-фильтр | Прекратить продажи ссылок |
|
Клоакинг, спам на форумах, дорвеи. | Минусинск | Не использовать эти методы |
|
Изменения в трафике по неизвестным причинам | Минусинск | Если виноваты конкуренты, просить помощи у службы поддержки "поисковика" |
Фильтры на самом деле не только не страшны, но и полезны, особенно если ориентироваться на них как на результат бесплатного аудита сайта поисковыми системами. Лучший способ действий — выявить, исправить и продолжать работать еще эффективнее!
С уважением, Настя ЧеховаЭта статья будет полезна всем, кто хочет до поискового продвижения сайта убедиться в том, что домен нормальный и с ним не будет проблем в дальнейшем.
Основной метод проверки – это:
— Залить домен на хостинг
— Поставить на него текст + базово прописать мета теги
— Посмотреть как он реагирует
Но в предыдущей статье не указан самый основной нюанс, который с самой высокой вероятностью показывает все ли хорошо с доменом.
Для того чтобы было максимально понятно, рассмотрим на пошаговом примере, как это делаем мы.
Пошаговая инструкция
1. Создаем группу запросов Brand
Обычно это такие ключевики как:
- сайт
- seoprofy
- seo profy
- сайт
Самым важным в этом списке в случае проверки на фильтры является: сайт .
То есть:
- название домена
- убираем точку
- ставим пробел
- добавляем как ключевое слово
- смотрим результаты
В том числе основной ключ для проверки «название домена, без точки, с пробелом».
Пример зафильтрованного домена:
Сразу видно что с доменом что-то не так.
2. Получаем ответ
Основной критерий : сайт не находиться в ТОП 1.
В большинстве случаев если домен не находиться в топ 1 по такому запросу, то либо санкции за обратные ссылки, либо еще за что-то.
Важно : но в консоли Google, в разделе «Меры, принятые в ручную» может ничего и не быть (фильтр может быть автоматический).
Но, из 99% случаев, когда слетает этот запрос, то домен ушел под фильтр. Тоже самое, когда только запускается домен заглушка.
3. Кому это полезно?
- Те, кто регистрируют дроп домены для сателлитов под трафик
- Те, кто покупают сайты или домены под проекты
По сути, если сайт находиться в индексе, мы проверяем это за пару минут, в итоге сразу понятно, все ли с ним нормально или нет.
В заключение
В данном методе нет ничего сложного. Можно проверять как руками сразу в Google, так и через сервисы проверки.
Метод простой, как конструкция лома. Но по факту, это быстро, и сразу показывает нужно ли детально анализировать домен на предмет санкций.
Для закрепления, визуально:
Используйте этот простой метод, и сразу принимайте решения, стоит ли тратить время на такой домен или нет.
А что вы думаете по этому поводу? Давайте обсудим в комментариях!
Приветствую уважаемые читатели и коллеги! Сегодня подниму наболевший вопрос - наложение на сайты санкций поисковых систем. В худшем случае они приводят к полной потере трафика. Поэтому их важно вовремя диагностировать и излечить. Знаете, как это делается?
В текущей публикации подробно опишу, как проверить сайт на фильтры от Яндекс или Google. Также предоставлю ряд рекомендаций по выходу из под них и более детально опишу пару штук. АГС, Минусинск, Панда, Пингвин - всё это при наложении на сайт не сулит ничего хорошего для продвижения.
Статья получилась довольно емкая. Поэтому для вашего удобства составил содержание.
Еще не выбрали? Тогда предлагаю ознакомиться с материалом полностью. В нем нет ничего лишнего.
Основные признаки нахождения сайта под фильтрами
Для начала отмечу самый печальный исход.
Полная потеря трафика с поиска и вылет почти всех страниц из индекса.
Такое не заметить сложно. Бывают и менее очевидные ситуации, которые с определенной вероятностью свидетельствуют о нахождение сайта под фильтрами систем Яндекс, Google. Внимание на список признаков нахождения сайта под существующими фильтрами.
- Падение ТИЦ до 0.
- Вылет страниц из индекса поисковой машины.
- Резкое снижение посещаемости по одной, группе или всем страницам без видимых причин.
- Залипание или понижение позиций в выдаче, несмотря на все заслуги.
Как всё это смотреть? Например, ТИЦ можно проверить по адресу https://yandex.ru/yaca/cy/ch/, добавив после последнего слеша адрес своего сайта без http. Для проверки позиций сайта лично мне нравится сервис allpositions . Количество публикаций в индексе проверяется в статистике для вебмастеров от Яндекс, Google.
Почему проявляются столь неприятные ситуации? Все просто – ошибки на сайте. Многие из них можно обнаружить при помощи комплекса проверок на labrika . Его инструменты мне сильно помогли в свое время.
Попал ли сайт под фильтр поисковой системы: простая проверка
Проверить сайт на бан в Яндекс и репутацию в Google точно стоит, если замечены один или несколько вышеописанных признаков. Как это сделать? Для этого существует удобный интерфейс xtool .
Вводите адрес и жмете «проверить». Полезной информации будет много. Среди нее есть достаточно интересные моменты.
Я проверил несколько ресурсов. Как видите, один из сайтов попал под фильтр Непот. Причина - некачественные исходящие ссылки. Если их примерно от 5 штук и тем более, если они покупные, да еще и не тематические, то такого расклада вполне стоит ожидать. Для снятия санкции их придется удалить и после проделанной работы дополнительно можно написать в поддержку поисковой системы.
Теперь продемонстрирую, какие результаты можно считать отличными.
Вероятность санкций по нулям. Этот проект развивается нормально без всяческих помех для хорошего поискового продвижения.
Обновление от 28.02.17.
Есть хорошая новость для тех, кто заботится о качестве сайта, трафика и росте доходов. Отбросив сказки в сторону, составил качественный список .
Делаем комплексную проверку сайта на наличие фильтров от Яндекс и Google
Перечислю несколько достаточно серьезных алгоритмов, которые будем диагностировать:
- за манипуляцию ПФ (поведенческие факторы);
- Минусинск;
- Panda (Панда);
- Penguin (Пингвин).
Наличие на сайте этих фильтров и некоторых других может пагубно сказаться на его развитие. Приступим к их диагностике. Для нее потребуется специальный алгоритм и доступ к системе статистики.
Один проект сильно помогает мне в работе над блогом - SEOlib . Среди множества его инструментов обращу внимание на конкретный - диагностика санкций. Еще не пользовались его возможностями? Давайте посмотрим подробнее.
Для работы инструмента потребуется доступ к аналитической системе Яндекс Метрика или Google Analytics. Выберу первый вариант.
Временно разрешаю доступ и перехожу к следующему этапу.
Теперь я могу начать проверку сайта на фильтры Google и Яндекс. Чтобы было понятнее, сразу поясню, что отображено на графике.
- Красная и синяя возрастающие линии - это динамика роста визитов. Я не сразу понял, но потом пришел к выводу, что строится недельный, а не суточный или месячный график.
- Цветные вертикальные линии отмечают время, когда бан в поисковой системе мог быть наложен на проверяемый ресурс.
Цвет вертикальной линии соответствует алгоритмам, способным наложить санкции. На картинке выше масштаб мелкий, поэтому покажу блок с расцветками крупнее.
Кстати, видите, что для обеих поисковых систем внизу есть ссылка с фразой «хронология алгоритмов». Она ведет на страницу с историей, которая тоже бывает крайне полезна для изучения.
Хорошо, с графическими представлениями разобрались. Кто думает, что зеленые вертикальные линии на рисунке выше свидетельствуют о том, что на проверяемый проект точно наложена санкция?
На самом деле это не так. Дело в том, что у многих фильтров есть общий признак - падение трафика. И эту особенность можно использовать.
Если бы после вертикальной черты наблюдалось резкое снижение посещаемости, то с высокой вероятностью можно говорить о наличие фильтра на сайте. Каком? Посмотрите на цвет черты.
Попутно покажу интересную возможность. Под рассматриваемым графиком есть сравнительная таблица.
Можно отслеживать динамику изменения органического трафика, который идет на конкретные страницы или по запросам.
Очень удобно для выявления адресов страниц или ключевых фраз, по которым идут потери. Если они найдены, как в первой строке примера, то есть смысл определить причину.
Если это банальное снижение частотности ключей, то все в порядке. Однако могут сказаться поведенческие факторы, юзабилити и дизайн, качество контента и многое другое. Желательно разобраться и устранить причины.
Пользуемся инструментами вебмастера и делаем выводы
Пройдусь коротко лишь по ключевым моментам, необходимым для раскрытия текущей темы публикации. Начнем с Яндекс Вебмастер.
- Проверяем не упал ли резко ТИЦ или не начали ли вылетать страницы.
- Смотрим диагностику проблем на сайте.
Теперь переходим в Google Search Console.
- Смотрим ошибки сканирования.
- Переходим в раздел «вид в поиске», «оптимизация html». Проблем обнаружено не должно быть.
- Особое внимание на раздел «поисковых трафик», «меры, принятые вручную».
- Смотрим «проблемы безопасности».
- Проверяем удобство просмотра для мобильных устройств.
Остается сделать выводы. Есть ошибки в каких-либо пунктах? Наличие одного или нескольких недочетов не всегда гарантирует наложение фильтра, зависит от разновидности и «тяжести» ошибки. Несмотря на это, такие недочеты уж точно положительно не скажутся на раскрутке ресурса.
Фильтр АГС: как проверить сайт и выйти из под санкций?
Он является одним из самых серьезных. Встречаются упоминания о разных разновидностях АГС-17, 30, 40. Тема их различий, конечно, увлекательная, однако речь сейчас не об этом. Для начала выделю основную причину наличия фильтра АГС от Яндекс на сайте со всеми вытекающими последствиями.
Бесполезность для пользователей.
Проявляться это может в большей или меньшей степени. Суть от этого мало меняется. Посмотрим как проверить?
Можно воспользоваться одним из сервисов. Для примера проверю данный блог на одном из них.
С моим проектом все нормально. Проверка на АГС показала, что санкций нет.
Что же делать с теми сайтами, проверка на которых обнаружила его присутствие? Для начала нужно выявить причины.
- Скопированный контент или плохой рерайт (переписывание текста своими словами).
- Большое количество страниц с минимальной смысловой нагрузкой.
- Дубли контента, созданные намеренно, или появившиеся в следствие некорректной настройки сайта.
- Наличие разделов или большое число материалов, которые не связаны с основной тематикой проекта.
- Ориентирование контента, в первую очередь, на поисковых роботов и извлечение прибыли, а не на полезность для людей.
- Обман, когда заголовок не соответствует содержанию.
- Плохое юзабилити.
Так как алгоритм работы АГС не разглашается, то вышеописанные пункты основаны на личных наблюдениях и изучение массы общедоступной информации. Отмечу, что список данными пунктами может не ограничиваться, однако результативная мысль у всех одна.
Если сайт не представляет особой пользы для людей, пытается искусственно влиять на продвижение, то вполне может получить фильтр.
Исходя из выявленных причин и следует смотреть, как выйти из под АГС от Яндекс. Конечно, его желательно избегать изначально.
Фильтр Минусинск
SEO-ссылки - знакомое понятие? Коротко поясню. Они обычно ведут на целевой сайт и покупаются на посреднических ресурсах с использованием выбранных анкоров (текстов для ссылки). Цель проста - искусственно повлиять на ранжирование (повышение позиций) сайта в поиске.
За такие действия сайт может попасть под фильтр Минусинкск от Яндекс. Последствия - снижение посещаемости и падение многочисленных позиций в органической выдаче.
Если такое случилось, сайт можно вылечить. Как это сделать? На первый взгляд, ничего сложного - нужно удалить SEO-ссылки. Сложность заключается в том, что это не всегда удается сделать, так как посреднические проекты обычно принадлежат другим людям. Бывают и другие причины в зависимости от частных случаев.
Как выйти из под фильтров Яндекс и Google?
Ответ прост. Нужно использовать «белое» продвижение и исправить ошибки прошлого.
Опишу возможные варианты выхода из под фильтров поисковиков.
Находим и устраняем причину самостоятельно.
Сейчас в вашем распоряжении мощная информация - этот материал. В ряде случаев он может помочь детально проверить выбранный сайт на фильтры Google и Яндекс, а также провести работу по выходу из под них.
Также не пожалейте времени подробно изучить рекомендации для вебмастеров, которые предоставляют поисковые системы. Я просто не понимаю, почему многие не применяют на практике столь ценные сведения.
Ждём вплоть до нескольких месяцев и получаем результаты.
Ошибки устранены. Теперь ждем, когда пока поисковые алгоритмы среагируют на изменения. При желании также можно написать в поддержку поисковика, если время ожидания сильно затянулось.
Если всё было сделано правильно, то фильтр могут снять. Остается лишь радоваться. Однако положение дел не всегда бывает таким радужным.
Причина не выявлена. Фильтр снять не удается. Что делать?
Да, так тоже бывает. Если хотите нормализовать ситуацию, то выход остается один - обращаться к профессионалам. Свои сайты до состояния наложения фильтров никогда не доводил, так что проверенных специалистов по их снятию пока посоветовать не могу.
Кстати, есть 2 мощных информационных материала. Возможно, именно для вашего случая в них содержатся сведения, которые помогут скорректировать стратегию продвижения в лучшую сторону.
- В помощь вебмастерам, которые заботятся о качестве своих проектов предоставляю свой курс о комплексном подходе к продвижению. Подробности по адресу .
- Если решили поработать над дизайном и его удобством для людей, то даю еще один материал. Он расположен здесь .
На этом публикацию буду завершать. Напоследок отмечу одну мысль - если в ходе проверки сайта на всевозможные разновидности фильтров выявлен АГС, то я бы всерьез задумался о крупномасштабных изменениях на ресурсе и смене домена. Однако каждый сам решает, как поступить в такой ситуации.
Есть вопросы, дополнения? Пишите комментарии. Тема достаточно интересная и актуальная. Есть что обсудить.
Кстати, наблюдаете за моим шоу по раскрутке блога с нуля? Часть тематических публикаций собрана .
Заработок на своем сайте или без него интересен? Есть много хороших способов, описанных в прошлых публикациях.
Я продолжаю готовить новые материалы. Подписывайтесь на обновления по электронной почте или отслеживайте анонсы в социальных сетях. Всего доброго. До связи.
Алгоритмы поисковых систем постоянно меняются, появляются новые факторы и фильтры. Приблизительно в половине случаев резкие скачки посещаемости приходятся именно на дату обновления релиза, введение нового фильтра или очередную волну поисковых санкций.
Чтобы помочь вебмастерам диагностировать причины изменения трафика, мы разработали бесплатный инструмент поисковой диагностики – .
Инструмент берет данные о посещаемости сайта с Яндекса и Google по API Я.Метрики или Google Analytics. Данные выводятся в график, где резкие скачки посещаемости можно сопоставить с датами изменения алгоритмов и введения новых фильтров.
Например, на графике видно, что у пациента по грузоперевозкам посещаемость из Google резко просела сразу после релиза Panda 4.1 в конце сентября:
У интернет-магазина электроники трафик из Яндекса начал постепенно проседать с марта, когда было официально объявлено об отмене ссылочного:
Астрономический портал потерял 2/3 посетителей из Яндекса в сентябре, и дата его просадки совпадает с очередной волной пессимизации за накрутку ПФ:
Вот еще один портал – строительный. На графике видно, что после изменения алгоритма АГС в середине апреля трафик из Яндекса резко увеличился – очевидно, фильтр был снят:
Но после первой волны июньского релиза трафик опять начал уменьшаться – вероятно, сайт не справился с новой формулой ранжирования и снова потерял видимость в поиске:
Бывает, что момент просадки трафика не совпадает с датами алгоритмических обновлений. В таком случае причину нужно искать в ручных санкциях или каких-либо других проблемах:
Также инструмент показывает изменения по визитам для самых посещаемых страниц и для 50-ти популярных запросов. Это помогает понять, за счет каких посадочных страниц просел трафик и по каким запросам понизилась видимость сайта:
Инструмент абсолютно бесплатный, так как для обработки данных не требуется много ресурсов. Пользуйтесь на здоровье.
Пошаговая инструкция по диагностике причин просадки трафика находится .