Фильтры Google: как в них можно попасть и как из них выйти

Содержание:

  1. Проверка на попадание в фильтры
  2. Безопасность
  3. Анализ трафика
  4. Число индексированных страниц
  5. Выпадение из выдачи
  6. Основные фильтры Google
  7. Заключение

С каждым годом количество информации в интернете растет, поэтому современные поисковики вынуждены фильтровать контент, который пользователи видят в выдаче – никому не нужны плохие SEO-тексты, набитые рекламой и плохими ключевыми словами. Сегодня мы выясним, каким образом фильтрует информацию Google и как не попадать под его санкции.

фильтры от пс google

Проверка на попадание в фильтры

Чтобы проверить сайт на фильтры Гугла, необходимо пройти по ряду признаков и определить, подходят они под ваш проект или нет. Отдельные признаки могут иметь место по другим причинам, но при многочисленных совпадениях стоит задуматься, не попал ли сайт под отсев.

Безопасность

Отчет Google Search Console содержит в себе различные данные по безопасности – наличие вредоносного ПО, размещенного без вашего согласия контента и т.д. В случае вывода отчетом предупреждений лучше всего исправлять их как можно быстрее. Небезопасный сайт не только получает пониженный рейтинг в выдаче, но и может рассылать спам, красть данные пользователей или некорректно работать.

Анализ трафика

Если поток посетителей заметно снизился, это один из основных признаков понижения рейтинга в поисковике. Такое может случиться по ряду причин (например, многие ресурсы испытывают сезонный спад), поэтому лучше всего сравнивать данные по трафику не только с предыдущими месяцами, но и с соответствующим отрезком прошлого года.

Число индексированных страниц

Если воспользоваться в поисковой строке оператором «site:имя домена», вы увидите количество индексируемых страниц. В случае, когда изменения в сайт не вносились, а количество индексов снизилось, можно точно сказать, что ресурс попал под фильтрацию.

Минус данного метода в том, что он может быть использован только для крупных проектов, содержащих более 500 страниц. В противном случае, даже если сайт под фильтром Гугла, сильной разницы в количестве индексов может не быть.

Выпадение из выдачи

С помощью раздела «Покрытие» из отчета GSC можно определить, какие url’ы выпали. Если их число уменьшается, это значит, что поисковик изучил контент, признал его некачественным и выбросил из индексирования (и, как следствие, поисковой выдачи).

photo
Читайте также:
E-A-T факторы – что это и как улучшить


Основные фильтры Google

Для обработки информации и ее отсева Google использует несколько разных алгоритмов и фильтров с разной специализацией и разными санкциями. Разберемся, какие фильтры бывают, по какой причине в них попадают и как из них выбраться.

  1. Sandbox. Этот алгоритм проверяет молодые домены. Он следит за тем, как развивается новый ресурс, а до того он находится в своеобразном зале ожидания и не выдается поиском. Чаще всего сайты находятся в ожидании от пары недель до пары месяцев. Если ваш проект и после этого срока все еще не попадает в выдачу – значит, есть какие-то проблемы.
    Причины попадания: отсев через Sandbox может произойти, если новый сайт слишком быстро наращивает ссылочную массу. Этот процесс может быть классифицирован как спам. Также попадание под санкции возможно, если доменное имя сменило хостинг или владельца.
    Как выйти: достаточно просто регулярно обновлять контент, проводить перелинковку и не перебарщивать с покупкой ссылок на биржах.
  2. Domain Name Age. Этот фильтр аналогичен Sandbox, но действует до года. Он не исключает ресурс из выдачи, а заметно снижает его рейтинг, пока сайт не будет признан достаточно качественным. Конечно, достигнуть нужного уровня траста можно и гораздо быстрее, чем за год.
    Причины попадания: автоматически.
    Как выйти: рекомендации те же, что и в случае с Sandbox. Ускорить выход из фильтра можно покупкой старого домена с положительной историей.
  3. Too many links at once. У этого фильтра есть прозвище «ссылочный взрыв». Попадание в этот фильтр поиска Google приводит к обнулению всех бэклинков и сильному падению трафика.
    Причины попадания: слишком активная покупка большого количества ссылок за небольшой промежуток времени. Одновременное появление массы бэклинков расценивается поисковиком как подозрительное и приводит к санкциям.
    Как выйти: при снижении активности по покупке ссылок фильтр снимается в течение 1-2 месяцев. Однако специалисты настойчиво советуют не попадать в ссылочный взрыв, так как он наносит сайту серьезный ущерб. Покупка ссылок должна быть плавной и постепенной.
  4. Bombing. Точечный фильтр, накладываемый на конкретные страницы, которые подозреваются в распространении спама. Трафик с таких страниц прекращается.
    Причины попадания: на сайт ведет слишком много бэклинков с одинаковыми ALT, TITLE или анкором (текстом, в который вставляется URL).
    Как выйти: удалить такие линки или изменить для них анкор. Делать это следует внимательно, поскольку если останется хоть одна, санкции будут сняты только по таймеру. Таймер снятия для Bombing очень большой – до полутора лет.
  5. Broken Links. Также известный как «битые ссылки». Фильтр мониторит сайты на наличие битых ссылок, ведущих на несуществующие страницы. Подобное особенно актуально для различных интернет-магазинов, которые постоянно перекладывают товары из одного раздела в другой.
    Причины попадания: накладывается за большое количество страниц, выдающих ошибку 404.
    Как выйти: удалить или скорректировать все битые ссылки.
  6. SEO-Links. Фильтр, отслеживающий, не слишком ли активно происходит обмен ссылками для повышения доверия поисковиков.
    Причины попадания: большое количество внешних гиперссылок, которые ведут на сторонние ресурсы, которые, в свою очередь, отсылают к вашему сайту.
    Как выйти: количество сайтов-партнеров не должно превышать трех-четырех.
  7. Page load time. Фильтр снижает ранг выдачи, если страницы слишком долго грузятся. Гугл расценивает такое как некачественный и неоптимизированный контент.
    Причины попадания: скорость загрузки многих страниц на сайте ниже рекомендованного порога.
    Как выйти: оптимизировать сайт. Инструмент PageSpeed может показать не только время загрузки страниц, но и дать рекомендации по оптимизации.
  8. Omitted results. Надпись на странице поисковой выдачи «Мы скрыли похожие результаты» — это результат работы данного фильтра. Он скрывает контент, который считается дублированным.
    Причины попадания: слишком большое количество дублей (внутренних и внешних) и плохая перелинковка.
    Как выйти: повышать уникальность контента. Следует помнить, что повышение уникальности уже имеющегося контента может дать результат быстрее, чем загрузка нового материала.
  9. «-30». Фильтр, снижающий ранг подачи сразу на 30 строк. Накладывается за использование запрещенных приемов так называемого черного SEO.
    Причины попадания: скрытые редиректы, клоакинг (различный внешний вид сайта для поисковиков и пользователей), дорвеи (использование сквозных сайтов для увеличения трафика).
    Как выйти: избавиться от всего вышеописанного.
  10. Over optimization. Чрезмерная «оптимизация» сайта для поисковиков приводит к замедленной индексации. Чтобы такие тяжелые ресурсы не перетягивали одеяло на себя, нагружая поисковики, Гугл снижает их рейтинг или исключает из индекса.
    Причины попадания: слишком тяжело семантическое ядро, повышенная плотность ключей, чрезмерно оптимизированные мета-теги и альты у изображений.
    Как выйти: провести корректную оптимизацию, хотя бы на самом примитивном уровне, ознакомившись с сайтами-конкурентами.
  11. CO-citation linking filter. Этот фильтр называют «Пингвин». Он срабатывает, когда поисковик не может установить соответствие между сайтом и площадками, которые его упоминают – например, если магазин сдобной выпечки рекламируется на форуме по диетическому питанию.
    Причины попадания: несоответствие основной темы донора и акцептора.
    Как выйти: удалить ссылки с нетематических или неподходящих площадок. Это трудоемкий процесс, поэтому выгоднее изначально тщательно подходить к выбору площадки для закупки бэклинков.
  12. Панда. С помощью этого фильтра Гугл контролирует качество контента по нескольким критериям. Некачественные сайты рискуют полностью выпасть из выдачи.
    Причины попадания: отсутствие четкой тематики (информация на слишком разные или противоречивые темы) и низкая информационная ценность (т.е. слишком много «воды»). Также фильтр отслеживает время пребывания на ресурсе: если пользователь зашел на сайт и быстро вернулся к выдаче, это означает, что он счел информацию на сайте бесполезной или некорректной.
    Как выйти: следуйте определенной тематике, стараясь лить поменьше «воды» в тексте, особенно на самых популярных страницах. Необходимо оптимизировать подачу информации, чтобы пользователь сразу заинтересовался и провел на ресурсе определенное время, а не вернулся в поисковик спустя несколько секунд, не сумев сразу найти ничего ценного.
  13. Заключение

    Фильтры поисковой системы Google были изобретены, чтобы улучшить качество контента в выдаче. Теперь пользователи получают более качественную информацию, чем на заре развития интернета, и не тонут в массе ссылок на различный мусор. Однако теперь необходимо следить за тем, чтобы ваш сайт не попал под санкции. Следуйте рекомендациям, приведенным в статье, чтобы не страдать от фильтров поисковика или хотя бы быстро ликвидировать причины санкций.