Ткаченко Алина
Ткаченко Алина
Копирайтер
14.09.2023

Фильтры Google: виды, диагностика, восстановление

Ткаченко Алина
Ткаченко Алина
Копирайтер
14.09.2023
14.09.2023
5.0
1699
11 минут
0

Работа в каждой сфере деятельности регулируется различными правилами и, соответственно, санкциями, если кто-то их не соблюдает. Например, если профессиональный спортсмен нарушает правила игры, его наказывают за это. В зависимости от того, насколько серьезным является отклонение от общепринятых норм, его могут временно удалить из игры или отстранить от участия в соревнованиях на определенный период.

Фильтры Google очень похожи на спортивные штрафы. В этой статье мы разберемся вместе, почему сайт может попасть под санкции и что нужно сделать, чтобы этого избежать.

Фильтры Google — что это такое?

По своей сути фильтры Гугл разработаны для наказания сайтов, на которых содержится неполезный контент или в продвижении использовались «черные» методы. Таким способом поисковая система борется с некачественными ресурсами и стремится сделать результаты поисковой выдачи максимально полезными. То есть если оценить работу таких алгоритмов Гугл с точки зрения потребителя, то они нужны. 

С другой стороны, для владельца сайта попадание под фильтры может означать настоящий крах, так как на создание и продвижение сайта было потрачено множество ресурсов. Фактически из-за неправильных действий непрофессиональных сеошников могут быть напрасно потеряны время и деньги.

Каждому владельцу онлайн-бизнеса будет полезно знать, что фильтры Гугл, используемые поисковыми системами для проверки и ранжирования веб-сайтов, постепенно усложняются и становятся более строгими.

В связи с этим как для владельцев сайтов, так и для сотрудников, ответственных за SEO-продвижение, очень важно разобраться в различных видах санкций, понять, по каким причинам они могут быть задействованы и как их избежать.

Как определить, что сайт попал под фильтр от Google

Сейчас диагностика сайта и распознавание действия фильтров становятся сложнее по сравнению с тем, что было ранее. Прошли те времена, когда санкции накладывались на определенный период, и по резкому падению трафика можно было понять, что ресурс попал под действие штрафов. В настоящее время фильтры Google интегрированы в поисковые алгоритмы и не дают низкокачественным сайтам расти по многим показателям. То есть сайт больше не сталкивается с резкой потерей трафика, но и не может достичь хорошего роста. Резкое снижение трафика из-за фильтров наблюдается только при внедрении совершенно новых апдейтов, которые затем становятся неотъемлемой частью алгоритма и действуют, как бы устанавливая «стеклянный потолок» в прогрессе сайта. Давайте вместе разбираться, как проверить сайт на фильтры Google.

1. Проверяем ограничения, наложенные вручную

Начать следует с проверки, не попал ли сайт под так называемые ручные санкции. Это своего рода результат решения сотрудников Google после проверки сайта вручную. Этим будут заниматься в компании, если на веб-ресурс кто-то пожалуется или будет получен сигнал от алгоритмов о множественных нарушениях. К примеру, может быть обнаружена нежелательная ссылочная активность, нарушение авторских прав, публикация низкокачественного контента или другие действия, которые считаются недопустимыми с точки зрения Google.

Если ваш сайт попал под какие-либо ограничения, наложенные вручную, вы сможете их обнаружить, перейдя в раздел Google Search Console под названием «Manual Actions».

2. Анализируем поисковый трафик

Google Analytics представляет отличную возможность для отслеживания и понимания изменений в трафике на сайт. На этом сервисе можно увидеть периоды, когда начинается снижение посещаемости. Если вы заметили проблемы, обязательно проведите анализ данных за несколько месяцев. Так вы сможете зафиксировать время появления проблемы, чтобы поискать ее причину.

3. Проверяем количество страниц в индексе и динамику этого показателя

Для начала стоит установить, не попал ли сайт целиком под штрафные санкции. Для этого нужно ввести в поисковой строке Google «site:ваш домен» и посмотреть на результат. Если ничего не появится в результатах поиска, это может означать, что веб-ресурс исключен из поисковой выдачи.

Если сайт уже был проиндексирован ранее и теперь исчез из результатов поиска Google, это может быть связано только с общим штрафом на уровне всего онлайн-проекта или его добавлением в черный список. Если сайт новый, помните, что индексация может занять от нескольких дней до недели, поэтому нет необходимости паниковать, если он еще не отображается в поиске.

При таком способе проверки стоит обратить внимание на количество страниц в индексе. Если вы наблюдаете уменьшение их количества, то нужно перепроверить количество проиндексированных страниц в Google Search Console. Там можно увидеть временную шкалу и понять, почему те или иные страницы не индексируются.

4. Проверяем позиции сайта с помощью сервисов

Существуют различные онлайн-инструменты для отслеживания индексации сайта. В качестве примера можно назвать linkody.com или smallseotools.com. Но они имеют ограничения в бесплатных версиях.

Более точные данные о позициях сайта даст Google Search Console. Также будет полезен инструмент от Serpstat.

Что делать, если позиции упали и страницы не проиндексированы

Итак, предположим, что вы выяснили, что позиции вашего сайта ухудшились и отдельные страницы не индексируются (как правило, вызывает тревогу индексация ключевых посадочных страниц). В таком случае необходимо проверить статус и тип страниц, исключенных из индекса. Получить такую информацию можно в Google Search Console. А далее — постараться понять, под действие какого именно фильтра попал ваш сайт, и работать уже точечно.

Базовые официальные фильтры Гугл: диагностика и лечение

Что бы ни говорили, а корпорация Google — это настоящий лидер в борьбе с недобросовестными методами продвижения сайтов. Фильтры поисковой системы Google регулярно обновляются. В результате пользователь получает более качественные ответы на свои запросы, а специалисты постоянно мониторят позиции веб-ресурсов и решают головоломки — почему позиции изменились.

Предлагаем рассмотреть, как работают фильтры Гугл, которые применяются наиболее часто.

1. Panda (Панда): принцип работы и лечение

Алгоритм под этим названием включен в работу с 2011 года. Его основная задача — борьба с некачественным или дублированным контентом на сайтах и исключение нерелевантных страниц из поиска.

Сайт попадает под этот фильтр чаще всего при таких условиях:

  • контент на страницах веб-ресурса не будет соответствовать параметрам — оригинальности, информативности, полезности и уникальности;
  • на сайте в разных разделах будут одинаковые или похожие материалы. Имеется в виду дублированный контент внутри самого веб-ресурса или скопированный из других источников;
  • на страницах недостаточное количество контента. Это особенно актуально для интернет-магазинов, где карточки товаров с неполными или малоинформативными описаниями могут быть полностью исключены из индекса;
  • посетители проводят мало времени на сайте и быстро возвращаются опять к поисковой выдаче. Это своего рода сигнал для поисковика о том, что качество контента не соответствует ожиданиям.

Мы рекомендуем регулярно следить за обновлениями этого и других алгоритмов, потому что требования к качеству контента могут меняться со временем.

Предлагаем вам несколько советов по поводу того, как определить, что сайт под фильтром Google, и что нужно сделать, чтобы этого не случилось.

Проблема

Как проверить

Как не допустить

На страницах нет полезного контента

Проверить список страниц, исключенных из индекса. Разместить на них качественные тексты

Размещать информативные тексты на новые страницы ДО того, как они будут проиндексированы, либо отметить их как «noindex»

Несоответствие единой теме

Пересмотреть содержимое сайта и удалить страницы с текстами на другие темы

 

Четко разрабатывать структуру и содержимое сайта на основе единой тематической стратегии

Низкие пользовательские показатели

С помощью Google Search Console найти страницы, которые имеют наибольший показатель отказов, и проработать

Тестировать работу всех форм, кнопок быстрого заказа до индексации

 

Также советуем:

  • избавиться от дублированных страниц, устранить скопированные тексты, оптимизировать внутреннюю структуру ссылок;
  • разнообразить текстовый контент на сайте с помощью маркированных и нумерованных списков, изображений, графиков и видео. Кроме того, актуализируйте тексты — регулярно дополняйте их свежей информацией;
  • проверить, соответствуют ли заголовки на сайте содержанию страниц;
  • устранить излишние повторения ключевых слов в тексте, заголовках от h1 до h6, метатегах и описаниях изображений.

Есть еще целый ряд алгоритмов, которые появились ранее, но потом они стали частью фильтра Panda.

Дополнительные результаты (Supplemental results)

Суть этого фильтра в том, что если на сайте будет много текстов, которые не несут оригинальной информации, а будут рерайтами с других источников, то поисковая система посчитает такой онлайн-проект недостаточно качественным. Такой веб-ресурс не будет исключен из индекса полностью, но он будет отображаться в разделе с дополнительными результатами, а потому трафик на страницу просядет. Среди последних анонсов Google есть информация о том, что для определения похожих по содержанию текстов будут применяться инструменты на основе ИИ.

Рекомендуем почитать
SEO продвижение сайта

SEO продвижение сайта - это набор методов и стратегий, направленных на оптимизацию, которая заключается в улучшении видимости по релевантным запросам и увеличении посещаемости сайта в поисковых системах Google, Bing, Baidu, Yahoo!, DuckDuckGo или YouTube.

Подробнее

Излишняя оптимизация (Over Optimization)

Как и другие фильтры поисковой системы Гугл, этот был разработан для борьбы с сайтами, которые были заспамлены ключевыми словами и фразами. Но этот штраф запустится, если на веб-странице, в ее HTML-тегах и метатегах обнаружится избыточное число ключевых слов и фраз. Это приведет к ухудшению позиций страницы в результатах поиска.

Дублированный контент (Duplicate content)

За ключи, которые повторяются на разных страницах, сайт также может быть подвержен санкциям со стороны алгоритма Google Panda. Поэтому важно не создавать новую страницу для каждого запроса, а правильно группировать семантику и, соответственно, тексты.

2. Penguin (Пингвин): принцип действия и лечение

Этот фильтр Гугл был разработан для того, чтобы бороться с манипуляциями в области ссылок. Алгоритм оценивает качество и естественность ссылок, указывающих на сайт. В отличие от Google Panda, который может негативно повлиять полностью на ранжирование сайта, Penguin применяется к отдельным страницам.

Предлагаем вам список типичных нарушений, за которые может быть применен этот фильтр:

  • участие в схемах обмена ссылками, пирамидах и других манипуляциях;
  • применение на сайте скрытых ссылок;
  • слишком частое использование ключей в анкорах;
  • наличие низкокачественных или спамных ссылок;
  • использование автоматических программ или ботов для создания и распространения ссылок;
  • участие в «черных» SEO-практиках.

Помните, что любые манипуляции с ссылками или контентом, которые противоречат требованиям по качеству и доброчестности, могут вызвать санкции.

А теперь несколько полезных советов от наших специалистов:

Проблема

Как проверить

Как не допустить

Стремительный рост числа внешних ссылок

Выгрузить список доноров и проверить его с помощью онлайн-сервисов, например, Majestic

Разработать оптимальную стратегию ссылочного продвижения с органическим наращиванием ссылочной массы

Размещение ссылок на некачественных ресурсах

Применить инструмент отключения ссылок Disavow и направить запрос на снятие санкций

Выполнять тщательную проверку доноров перед покупкой и размещением ссылок

К разновидностям алгоритма Penguin относятся такие:

1. Резкий рост ссылочной массы (Too many links at once)

Фильтр «Пингвин» также включает в себя фактор, учитывающий равномерность роста ссылок. Если произойдет резкий скачок количества ссылающихся доменов, то к самому веб-ресурсу потенциально могут быть применены санкции. Поэтому желательно постепенно наращивать ссылочную массу, чтобы избежать возможных штрафов.

2. Совместное цитирование (Co-citation linking filter)

Этот фильтр активируется в том случае, если на страницы сайта ссылаются нетематические ресурсы. Обычно это происходит, когда выбор доноров осуществляется неправильно, без учета их тематики. Сайт также может быть оштрафован, если он размещает ссылки на спам-сайтах, имеющих низкий уровень доверия и ссылающихся на различные не связанные ресурсы.

Чтобы не попасть под этот фильтр, важно покупать ссылки только на сайтах в схожей нише или сфере. При этом ежемесячный прирост таких ссылок не должен превышать 20% от текущего количества ссылок.

Коротко о дополнительных фильтрах Google

А теперь вспомним о других алгоритмах поисковой системы, учитывать которые обязательно в своей работе. Дополнительные фильтры Google тоже помогают следить за качеством ресурса.

Что такое Baby Panda

Этот алгоритм вышел в свет в 2012 году. Его основная функция — контроль количества рекламы на главной странице веб-ресурса. Этот фильтр был представлен после официального выпуска Panda и получил приставку Baby в силу своей схожести с первым. Он нацелен на те интернет-ресурсы, где главные страницы перегружены рекламными баннерами. В результате работы этого алгоритма поисковая система начала снижать рейтинг таких сайтов в результатах поиска. Чтобы не допустить этого, старайтесь уменьшить число рекламных баннеров на сайте.

Принцип действия Exact Match Domain (EMD)

Раньше считалось, что включение ключа в название домена может способствовать улучшению рейтинга в поисковой выдаче. С начала 2012 года данная методика перестала действовать и, наоборот, это приводит к ухудшению ранжирования. Если данный фильтр был активирован сразу после создания сайта, то проекту будет сложно достичь высоких позиций в поисковой выдаче. Однако, если домен с ключевой фразой уже существует, его рейтинг может упасть, но полностью исчезнуть из выдачи он не должен, так как в оценке ранжирования учитываются и другие факторы.

Если уже ваш сайт попал под действие этого фильтра, то, возможно, придется сменить доменное имя и запустить переадресацию (301 редирект). Для профилактики рекомендовано тщательно выбирать название веб-ресурса.

Можно ли обойти DMCA (Pirate)

По своему способу действия этот фильтр тоже напоминает Panda, но его действия регулируются законами об авторском праве и направлены на защиту от копирования информации с других интернет-ресурсов. В случае поступления жалоб на нарушение авторских прав владельцу сайта придется удалить неоригинальный контент и заменить его уникальным. Как вариант устранения проблемы может быть также размещение ссылки на первоисточник. Но это не всегда срабатывает. Так что главная рекомендация — не пользоваться чужими наработками.

Почему плох спам в микроразметке

Корректная разработка сниппетов существенно повышает вероятность перехода пользователей, наличие оценок и рейтинговых звездочек вызывает больше доверия к веб-ресурсу. Однако некоторые специалисты злоупотребляют этой практикой, добавляя рейтинги и оценки в микроразметку на страницах, где это не предусмотрено по стандарту. Если это проявится, то страница будет понижена в выдаче. Напомним, проверить микроразметку можно в Google Search Console.

Что такое Ссылочная помойка (Links)

Этот фильтр призван бороться с понятием, известным как «ссылочная помойка». Под этим термином подразумеваются сайты, которые содержат избыточное количество исходящих ссылок на одной странице. Проверить их количество и тематическое соответствие можно с помощью онлайн-сервиса Screaming Frog SEO Spider. При выявлении проблемы необходимо будет почистить список внешних ссылок.

Как устранить Битые ссылки (Broken links)

После того, как на ресурсе-доноре удалят ссылки, на исходном сайте появляются битые ссылки. Также они возникают в результате удаления страниц, изменения названий разделов или подразделов. Когда это происходит, существующие внутренние ссылки могут вести к страницам, которых уже не существует. Соответственно, при переходе на них они отображаются как страницы с ошибкой 404. Если таких страниц слишком много, общая оценка качества сайта снижается, и его позиции в поисковой выдаче ухудшаются.

Найти и выгрузить список таких страниц помогут многочисленные онлайн-инструменты (например, Screaming Frog). Далее их можно удалить или закрыть от индексации.

Чтобы такая проблема не возникала, необходимо при изменении адреса страницы настраивать 301 редирект. Также важен регулярный мониторинг и удаление ссылок на несуществующие страницы.

Секреты неофициальных фильтров

К этой категории относятся фильтры Гугл, о которых нет упоминания в официальных источниках Google, но их действие знают SEO-специалисты из разных точек мира.

Что такое -5, -30, -950

Речь идет об ухудшении рейтинга в поисковой выдаче из-за применения методов «черного SEO». Наблюдается снижение позиций на 5, 30 и даже 950 позиций. Этот фильтр применяется в случае таких нарушений:

  • клоакинг — размещение разного контента для пользователей и для поисковых роботов;
  • дорвеи — сайты, которые генерируют трафик и перенаправляют посетителей на другие веб-ресурсы;
  • использование скрытых редиректов, которые тоже перенаправляют пользователей на страницы, скрытые от индексации.
Узнайте, как привлечь целевую аудиторию для Вашего сайта

Если не устранить эти нарушения, то вначале сайт потеряет свои позиции, а затем может быть полностью исключен из поискового индекса.

Алгоритм действий, если сайт попал под штраф от Google

Если ваш сайт попал под фильтр Google и его позиции в поисковой выдаче значительно ухудшились, то мы рекомендуем действовать таким образом:

  • внимательно изучите уведомления Google Search Console, выполните аудит с помощью других сервисов, о которых мы вспоминали в этой статье, и определите, какой фильтр мог повлиять на позиции сайта. Понимание природы проблемы поможет правильно решить ее;
  • если вы обнаружили, в чем причина нарушений, например, она может быть связана с контентом или ссылками, немедленно начните работу над их устранением;
  • если действие фильтра связано с нарушениями авторских прав, убедитесь, что на вашем веб-ресурсе нет контента, на размещение которого вы не имеете права;
  • еще раз перечитайте рекомендации Google по SEO. Убедитесь, что ваш сайт соответствует стандартам и рекомендациям поисковой системы;
  • после того, как вы убедитесь, что основные проблемы устранены и сайт больше не нарушает правила Google, вы можете подать запрос на пересмотр через Google Search Console. В заявке объясните, какие изменения были сделаны и почему ваш сайт больше не должен быть подвержен фильтру;
  • после подачи запроса на пересмотр придется подождать некоторое время. А пока продолжайте следить за тем, как сайт индексируется и как изменяются его позиции в поисковой выдаче.

И наконец, не старайтесь устранить проблему только для того, чтобы избежать фильтра. Работайте над постоянным улучшением качества сайта, чтобы долгосрочно поддерживать высокие позиции в поисковой выдаче.

Ткаченко Алина
Про автора
Ткаченко Алина
Копирайтер
Опыт работы 10 лет
Специализируется на создании полезного и продающего контента. Имеет опыт написания убедительных текстов для рекламы, сайтов, блогов и социальных медиа.
Больше статей от автора
Как вам статья?
5.0
Проголосовало: 1
Давайте обсудим Ваш проект
Нажимая на кнопку “Отправить”, вы даете согласие на обработку личных данных. Подробнее
Комментарии
(0)
Будьте первыми, кто оставит комментарий
wezom logo
Остались вопросы?
Оставьте ваши контактные данные. Наш менеджер свяжется и проконсультирует вас.
Подписывайтесь на рассылку Айтыжблог
blog subscriber decor image
Хотите получать интересные статьи?
Нажимая на кнопку “Отправить”, вы даете согласие на обработку личных данных. Подробнее
Следите за нами в социальных сетях
Этот сайт использует cookie-файлы для более комфортной работы пользователя. Продолжая просматривать сайт, Вы соглашаетесь на использование cookie.