Каждый сайт — это как автомобиль, который нуждается в уходе и техническом осмотре. Если долгое время не смотреть за состоянием автомобиля, то он будет ломаться, а позже вообще выйдет из строя. То же самое касается сайта. За ним нужно смотреть и заботиться об его развитии.

Самым опасным фактором для сайтов является бездействие их владельцев, или неправильное отношение к ним.

Как правило, такие сайты попадают под фильтры поисковых систем.

Гугл изначально умеет отличать хорошие сайты от плохих. И с каждым годом это умение совершенствуется. Анализ сайтов на качество в Google осуществляется благодаря определенным фильтрам, которые оценивают сайты по своим критериям.

Основными фильтрами Гугла в настоящее время считаются Панда, Пингвин и Колибри. Также есть много других, о которых мы поговорим в конце этой статьи.

Первым толчком к размышлениям над фильтрами являются непонятные негативные вещи, которые могут происходить с нашим сайтом. Например, мы замечаем, что резко падает количество посетителей, сайт теряет позиции в поисковой выдаче.

В основном это результат действия фильтров.

Давайте подробно ознакомимся с основными фильтрами Гугла. Кстати, эти фильтры по другому еще называются алгоритмами поисковой системы.

Google Панда (Panda) – проверка на качество контента

Впервые алгоритм Панды заработал 23.02.2011 года. Многие сайты начали терять позиции. Сео эксперты проанализировав сотни сайтов, которые попали под этот фильтр пришли к выводу, что основные санкции накладываются за плохой контент и дублирование текстов.

Под некачественным контентом понимаются тексты, которые написаны не грамотно и без смысла. В основном — это длинные «простыни», которые тяжело читаются. К тому же в них часто используется выделение жирным шрифтом ключевых слов. Такие тексты переспамлены ключевыми запросами.

В далеком прошлом такие тексты давали положительный эффект. Достаточно было написать статью чем побольше и в каждом абзаце по нескольку раз прописать ключевые слова и сайт выходил в ТОП. Но Гугл понял, что это манипуляция со стороны сео специалиста и ввел наказания в алгоритме Панда.

Дублирование контента, когда один сайт пирует информацию в другого, тоже крайне негативно влияет на сайт. Копирование текстов еще называют копипастом. Многим сайтам пришлось переписывать свои статьи, чтобы выйти из-под фильтра.

filtr

Основные правила для написания правильных текстов:

  1. Писать только уникальные статьи, или рерайт не ниже 80%, идеально 100% по программе Адвего
  2. Не злоупотреблять жирным подчеркиванием (лучше ничего не подчеркивать)
  3. Достаточно одного вхождения ключевого слова в тексте (при малом эффекте анализируем вхождения в конкурентов в ТОпе)
  4. Текст должен быть содержательным и полностью раскрывать затронутую тематику
  5. Статья всегда пишется по определенному плану и содержит четкую структуру
  6. В статье присутствуют заголовки, списки, таблицы, графики и изображения.

Чтобы избавиться от алгоритмов Панды поменяйте контент на сайте. Уникализируйте статьи. Данный алгоритм обновляется каждый месяц. Но позиции, после улучшения контента, будут восстанавливаться только через несколько месяцев.

Google Пингвин (Penguin) – против плохих ссылок

Интересное название — Пингвин, получил фильтр от Гугла, который начал бороться с некачественной ссылочной массой. Начало запуска алгоритма 24 апреля 2012 год.

Данный алгоритм ведет борьбу против покупных ссылок. Особенно страдают сайты которые закупают арендные ссылки. Положение сайтов усложняется если в покупных ссылках прослеживается переспам анкоров и агресивные анкоры. Сайт теряет от 10 до 100 позиций в поиске по всем запросам.

Чтобы выйти из фильтра, необходимо проанализировать всю ссылочную массу сайта и отказаться от арендных и «плохих» ссылок. Под «плохими» ссылками мы понимаем ссылки, которые размещаются на заспамленых донорах, не тематических сайтах, различных общих каталогах и т.д. Также придется закупить хорошие трастовые ссылки.

penguin

Основные правила для наращивания ссылочной массы

  1. Покупать преимущественно вечные ссылки
  2. В анкорах проставлять на 80-90% естественные тексты и брендирование (типа: тут, подробнее, url сайта)
  3. Покупать ссылки на сайтах схожей тематики
  4. Отказываться от заспамленных доноров
  5. Давать предпочтение высоко трастовым площадкам
  6. Закупать плавно и без рывков по восходящей линии

Google Колибри (Calibri) – понимает запросы пользователей

В основном алгоритм Колибри влияет на трафик вашего сайта. Он не так страшен как два предыдущих. Но если на него не обращать внимание, то сайт сильно будет проигрывать в поведенческих факторах и таким образом терять потенциальных посетителей. Фильтр начал работать 26.09.2013 года.

Фильтр Колибри еще называют «понимающим» алгоритмом. Дело в том, что фильтр очень четко понимает логику запросов пользователя. Если пользователь вводит слова: «хочу обед в офис в киеве», то поисковик выдаст кафе и рестораны, которые предоставляют услугу доставки. Этот алгоритм специалисты Google придумали, чтобы максимально эффективно удовлетворять потребностям пользователей. Алгоритм действует по принципу дифференциации, анализируя и понимая раздробленные запросы, менее частотные и конкретные.

По отношению к данному алгоритму, наверное следует говорить не о том, как не попасть под него, а как ему понравиться.

colibri

Что нравиться Колибри:

  1. Хорошо раскрытая тематика текста
  2. Конкретика в предложениях
  3. Географические указатели местоположения, контактные данные
  4. Прямые ответы на вопросы пользователей

Другие фильтры Google

Google Sandbox (Песочница)

Накладывается на различные новые сайты, которые хорошие по качетсву, но стремительно стремяться в ТОП. Гугл замечает, что сайт качественный, но в тоже время он искусственно желает быстро попасть на первые места. Гугл притормаживает такие сайты. Единственный выход для молодого сайта — подождать полгода. После этого срока его развитие пойдет быстрее.

Google — 30

В сео существую различные методы оптимизации для влияния на ранжирование. Одни методы относятся к белым — законным, другие к черным — запрещенным. Фильтр направлен против черных методов. Например, некоторые оптимизаторы скрывают контент, ссылки, много раз прописывают ключевые запросы.

Google Duplicate Content Filter

Само название говорит, что наказывается дублирование страниц. Бывает, что владельцы сайтов леняться писать свои статьи и копируют в других сайтов. Через такие действия их сайт плохо индексируется, а страницы находятся в дополнительном поиске (supplementary results).

Google Domain name Age Filter

Алгоритм относиться к домену сайта. Чем старше сайт, тем он авторитетнее. При равных параметрах несколько сайтов преимущество получает старший домен.

Google Bombing

Страдают сайты, которые в текстах обратных ссылок пишут одинаковые слова. Например, когда на сайт идут 200 ссылок с одинаковым текстом. Это своеобразный анкорный переспам.

Google Bowling

Относиться к предыдущему фильтру. Разница только в том. Что одинаковые анкоры закупаете не вы, а ваши конкуренты. Такой вариант подавления сайтов действует в случаях, когда сайт молодой и у него низкий рейтинг.

Links.html page filter

Наказание придумано для url, которые не содержат в себе окончание html. Поисковик должен понимать, что контент размещается на html странице.

Link Farming Filter

Наказывает за регистрацию в различных сервисах ссылочного автообмена. Сюда относятся каталоги, которые за размещение просят, чтобы вы на своем сайте поставили обратную ссылку на него. Категорически отказывайтесь от таких каталогах. В настоящее время можно разместить ссылку в белом каталоге при условии, что он не захламленный.

Reciprocal Link Filter

Гугл очень внимательно смотрит, какие внешние ссылки появляются на сайтах. Если он фиксирует, что сайт покупает ссылки то налагает фильтр. Покупать ссылки реально и безопасно даже сейчас. Только делать надо правильно.

Too many links at once Filter (Слишком много ссылок сразу)

Фильтр наказывает сайты, которые в короткий промежуток времени нарастили ссылочную массу. Это так называемый «ссылочный взрыв», когда за день покупается сразу 70 ссылок. Молодым сайтам рекомендуется закупать ссылки плавно и не больше 60 — 100 в месяц.

CO-citation Linking Filter (Взаимное цитирование)

Гугл очень четко распознает и анализирует ссылочные взаимосвязи сайтов. Именно поэтому качественный ссылочный профиль является залогом успешной раскрутки. Суть фильтра в том, что если ваш сайт А ( скажем музыкальной тематики) ссылается на сайт Б, который в свою очередь ссылается на запрещенные сайты и ваш сайт А, то поисковик подумает, что ваш сайт музыкальной тематики каким то образом связан с запрещенными сайтами и понизит в выдаче. Поэтому анализируйте не только показатели донора, его исходящие и входящие ссылки.

Broken Link Filter (Присутствуют битые ссылки на сайте)

Проверить свой сайт на битые ссылки можно программой Xenu. Битая ссылка — это ссылка поставленная на другую страницу, которая не существует. Данный фильтр влияет на позиции.

Page Load Time Filter (Сайт слишком долго грузится)

Загрузка страницы в хорошо оптимизированных сайтов занимает 2-3 секунды. Если ваш сайт не вкладывается в эти рамки и страницы грузятся дольше, то потеря позиций в выдаче гарантирована.

Over Optimization Filter (Переоптимизация контента)

В первую очередь пишите тексты для людей. Если ваши тексту будут переоптимизированы ключевыми запросами, чтобы привлечь внимание роботов, то можете попасть под Бан. Главным критерием правильной оптимизации текстов является их полезность для пользователя.

Друзья, поисковые алгоритмы все время развиваются. Наилучший способ не попадать под фильтры — это делать максимально качественный и полезный контент.