Тратьте на рекламу вашего сайта меньше энергии

«Преступление и наказание» в seo: фильтры Google

Google стал одним из первых поисковиков, кто начал фильтровать сайты по самым различным критериям с целью специального понижения позиций некачественных ресурсов. Искусственно влияние на поисковую выдачу и применение вебмастерами различные ухищрений,  недоработки существовавших поисковых алгоритмов – все это привело к довольно строгим мерам.

Чтобы бороться с подобными манипуляциями, для вебмастеров были разработаны особые рекомендации по оптимизации, где указывались запрещенные методы продвижения. Использование нечестных способов оптимизации контролируется и наказывается наложением на сайт специальных поисковых санкций – фильтров.

Большинство санкций Google можно разбить на две группы: фильтры, применяемые за внутренние факторы ранжирования и, соответственно, за внешние.

Фильтры Google, применяемые за внутренние факторы

Google Florida – один из самых первых фильтров Google, который  направлен против  внутренней переоптимизации сайта. Фильтр применялся к страницам со слишком большой плотностью ключевых слов в самом тексте или заголовке, злоупотребление выделением слов курсивом или жирным и т.д. В результате работы фильтра происходит заметное понижение позиций.

Впервые фильтр Флорида был введен Google в 2003 году и с тех пор он несколько раз видоизменялся. На сегодняшний день действует менее жесткая к действиям оптимизаторов версия данного фильтра.

Для того чтобы снять действие фильтра Google Florida достаточно убрать со страницы элементы агрессивной оптимизации.

Google Sandbox («Песочница»), этот фильтр применяется к новым сайтам, у которых нет нужного доверия со стороны поисковой системы. Google Sandbox не позволяет молодому сайту (около 2-3 месяцев) занимать высокие позиции по продвигаемым запросам.

С «Песочницей» сталкивается каждый новый сайт. Основная задача: продержаться на данном этапе и доказать поисковику, что сайт действительно является качественным. Для этого необходимо развивать сайт, наполнять его качественным контентом, регулярно закупать немного ссылок с тематических страниц с высоким PR.

Too many pages at once Filter – фильтр, под который попадают сайты за слишком большое количество добавленной информации. Если на сайте появилось сразу много новых страниц, то специальные алгоритмы Google могут посчитать, что происходит автоматическое наполнение контента, что очень часто применяют недобросовестные оптимизаторы при черных методах продвижения.

Чтобы не попасть под фильтр Google за резкое увеличение контента сайта, не следует одновременного добавлять большое число страниц на сайт. Делать это лучше регулярно, но постепенно, небольшими объемами. Также не стоит забывать и про уникальность текстов.

Google Supplemental Results – этот фильтр находит на сайте страницы с похожим контентом и переводит их в дополнительный поиск. Страницы, попавшие под действие подобного фильтра, будут показаны только в том случае, если в основном результате поиска будет слишком мало результатов.

Чтобы избежать фильтра Google Supplemental Results, нужно удалить с сайта страницы с идентичным контентом или разместить на каждой из таких страниц новый уникальный текст и мета-теги. Если фильтр уже был применен к сайту, то после того, как информация была переписана, рекомендуется закупить на страницы немного внешних ссылок.

Google Omitted Results – данный фильтр переносит страницы со схожим контентом в дополнительные результаты поиска. Страницы, попавшие под действие фильтра, можно увидеть, если нажать в поиске кнопку «повторить поиск, включив опущенные результаты».

Чтобы избавится от действия фильтра Google Omitted Results следует удалить все дубли страниц внутри сайта, переписать неуникальный текст.

Broken Link Filter – фильтр накладывается на сайт в том случае, если на нем обнаруживается большое количество битых ссылок. Сбивка внутренней перелинковки страниц может произойти,  если на сайте часто меняются адреса страниц, был выполнен редизайн или меню отсылает на несуществующие страницы. Доверие к сайту с превышением допустимого числа битых ссылок со стороны Google падает, и поисковик  понижает его позиции в результатах поиска.

При помощи специальных программ следует выполнять проверку сайта на наличие битых ссылок и вовремя избавляться от них.

С появлением нового алгоритма ранжирования Google Caffeine, появился Page Load Time Filter, который стал накладываеться на сайты при их слишком долгой загрузке. Этот фильтр призывает вебмастера обращать внимание на скорость загрузки сайта и стараться ее уменьшать.

Google Duplicate Content – этот фильтр накладывается на сайты за дублирование контента. Ресурс, к которому был применен данный фильтр, перестает реагировать на любые действия по его продвижению.

Основное правило, которым следует руководствоваться, чтобы не попасть под действие  Google Duplicate Content  – заполнять каждую страницу своего сайта уникальным текстом. Если у сайта не слишком высокие показатели Page Rank, то рекомендуется защищать контент от копирования при помощи специальных скриптов, чтобы избежать ошибочного наложения фильтра, т.к. он часто принимает решения в пользу страницы с большим уровнем PR.

Google Panda – самый новый на сегодня фильтр от Google, который принимает во внимание около 100 факторов. Главная задача фильтра Google Panda увеличить релевантность страниц в выдаче.

Чтобы не попасть под действие этого фильтра необходимо проводить полноценный комплекс работ по продвижению сайта по улучшению значительного количества параметров оценки ресурса поисковиком.
   

Фильтры Google, применяемые за внешние факторы

Google - 30 фильтр накладывается на сайты, которые были заподозрены в использовании запрещенных, «черных» методов продвижения (клоакинг, дорвеи, редиректы и др.), то сайт сначала понижается в выдаче на 30 позиций. В случае, если нарушения не были устранены, то такой сайт может быть полностью исключен из индекса.

После прекращения использования запрещенных методов продвижения, действие фильтра снимается, но если сайт исключили из индекса, то придется обратиться в службу технической поддержки Google.

Google Bombing – фильтр накладывается, если на сайт ведет очень много внешних ссылок с одинаковыми анкорами. При этом фильтр значительно снижает вес, который передают внешние ссылки вашему сайту.

Для снятия фильтра Google Bombing необходимо разбавить анкор-лист поставленных на ваш сайт ссылок. Рекомендуется снять часть ссылок и докупить новых, с большим разнообразием текстов. Также следует увеличить число «естественных» анкоров: тут, здесь и т.п.

Co-Citation Filter – фильтр накладывает за наличие «плохих» ссылок на сайт, т.е. с сайтов запрещенных тематик.

Поэтому перед покупкой ссылок тщательно проверяйте сайт-донор на тематичность и наличие сомнительных ссылок.

To Many Links at Once Filter – фильтр накладывается на сайт за резкий прирост внешних ссылок. Часто под этот фильтр попадают молодые сайты, когда в короткий срок покупается большое количество ссылочной массы.

Чтобы не попасть под To Many Links at Once Filter наращивать ссылочную массу нужно постепенно и максимально естественным образом. Для молодых сайтов рекомендуется закупать не более 3-7 качественных ссылок в день, а уже при дальнейшем продвижении темпы закупки ссылок можно увеличить.

Знание основных санкций поисковых систем важно при работе с сайтом. Оно позволяет грамотно планировать стратегию комплексного продвижения без использования запрещенных методов раскрутки.

О фильтрах Яндекса можно прочитать тут.
 

Статьи по теме