Фильтры Google

На сайте www.joe-whyte.com опубликована статья о различных фильтрах, наиболее часто обсуждаемых в среде веб-мастеров, которые поисковая система Google потенциально может применять к сайтам в выдаче. Автор также рассказывает о различных способах, позволяющих обойти эти фильтры и даже использовать их себе во благо.

Google Sandbox – так называемая «песочница» Google, в которую обычно попадают все новые сайты, хотя известны случаи, когда фильтр применялся и к относительно старым сайтам. Поисковая система задействует специальный механизм, который не позволяет молодым сайтам получить высокие позиции по конкурентным ключевым запросам. Однако, по менее популярным ключевым словам молодой сайт может ранжироваться высоко.

Как обойти «песочницу»? Для подсчета рейтинга сайта Google использует систему “trust rank”, или «уровень доверия». Логика системы проста: если на молодой сайт ссылается старый, авторитетный ресурс, следует вывод, что и молодой сайт достоин доверия Google, и к нему можно не применять фильтр Sandbox.

Google -30. Поисковая система может оштрафовать сайт, опустив его на 30 позиций в выдаче. Наказание применяется в отношении ресурсов, замеченных в использовании спаммерских технологий (дорвеи, javascript-редиректы и прочее).

Чтобы вернуться на свое нормальное место в выдаче, обычно достаточно просто отказаться от спорных элементов оптимизации и отправить запрос на повторное включение в индекс. Подробнее об этом фильтре читайте здесь: Arelis,Threadwatch,SERoundtable.

Google Bombing. Этот фильтр применяется к сайтам, на которые множество ресурсов ссылается по одному и тому же ключевому слову. Поисковой системе кажется противоестественным, что большое количество сайтов указывают на сторонний ресурс одинаковой текстовой ссылкой.

Если ваш сайт попал в данный фильтр, помочь может запрос на повторное внесение в индекс поисковой системы. Если фильтр не наложен, но вы заметили, что текст обратных ссылок на ваш сайт со всех ресурсов идентичный, вы можете попросить веб-мастеров изменить тексты ссылок или купить ссылки с тем текстом, который вам понравится. Вот ресурсы, которые освещают проблему Google Bombing: Search Engine Watch, NYTimes, Google Blogspot. Читайте также статью на нашем сайте.

Google Bowling: это, скорее, не фильтр, а ряд приемов Black Hat SEO, которые повлекут за собой бан вашего сайта. Обычно термин употребляется по отношению к действиям конкурентов, направленным на борьбу с популярностью вашего сайта. Как правило, такая техника проходит только в отношении новых сайтов.

Хотя Google утверждает, что завистники никак не могут повредить вашему рейтингу популярности, если вы заподозрили в вашем бане чей-то злой умысел – подавайте запрос на повторное включение в индекс поисковой системы. Подробнее о GoogleBowling читайте здесь: Web Pro News, ThreadWatch и SEroundtable.

Google Duplicate Content Filter, или фильтр для сайтов, которые используют не уникальное текстовое наполнение. Как правило, такие сайты не поднимаются в результатах поиска высоко, а если на них не ведут обратные ссылки, сайты могут быть отнесены к «дополнительным результатам поиска» (supplementary results) или вовсе будут опущены за незначительностью (omitted search results).

Если с вашего сайта украли материалы, попробуйте воздействовать на похитителей, а если это не поможет, свяжитесь с Google и опишите ситуацию. Чтобы проблема не повторилась, воспользуйтесь системой copyscape для отслеживания сайтов, которые незаконно пользуются вашими материалами.

Google Supplemental Results, или дополнительные результаты поиска. О том, каким образом те или иные страницы сайта могут попасть в «дополнительные результаты», мы уже писали в одной из предыдущих статей. Так или иначе, определенные страницы сайта могут быть помещены во вспомогательную базу Google. Если по некоему ключевому запросу выдача системы будет небольшой, Google обратится к вспомогательной базе, содержащей дополнительные результаты поиска.

Вывести страницы из разряда «дополнительных» можно весьма простым способом – заполучив ссылки на «пострадавшие» страницы.

Возрастной фильтр для доменных имен. Фильтр похож на «песочницу» и тесно связан с понятием «высокого уровня доверия поисковой системы». Однако можно пользоваться большим доверием поисковика, не находиться в Sandbox и все же попасть в фильтр для молодых сайтов. По логике Google, старый сайт с большей вероятностью, чем новый, будет релевантен конкурентному запросу.
Единственный способ избежать фильтрации – обрасти честными входящими ссылками с авторитетных сайтов.

Фильтрация пропущенных поисковых результатов (Omitted Search Results). Если пользователь не активирует опцию «show omitted results», то не увидит страниц, внесенных поисковой системой в этот список. В фильтр попадают страницы, содержащие не уникальные тексты, страницы, в точности повторяющие чужие теги title и description, сайты со слабой внутренней перелинковкой или без сети обратных ссылок.
Как и в предыдущих случаях, владельцу сайта предлагается бороться с внутренними проблемами, заставившими сработать механизм фильтрации.

Google TrustRank. Существует много факторов, которые влияют на формирование показателя доверия Google к вашему сайту. Подробнее о них можно почитать тут. К основным факторам относятся возраст сайта, количество обратных ссылок и уровень доверия к сославшимся на вас сайтам, количество исходящих ссылок, качество внутренней перелинковки сайта, способ генерации URL на вашем сайте. Через этот фильтр проходят все сайты, и если ресурс не отвечает требованиям поисковика – пеняйте на себя.

Как перехитрить фильтр: и старый, и молодой сайт могут иметь высокий или низкий уровень доверия поисковой системы. Все дело в количестве обратных ссылок с раскрученных сайтов, пользующихся доверием поисковика, разумной системе внутренних ссылок на сайте и в качестве проработки некоторых других деталей. Оптимизируйте свой сайт для посетителей и для поисковых индексаторов, и вы будете пользоваться доверием поисковой системы.

Фильтрация страниц с заголовком «links.htm». Как правило, такое название носят страницы, где публикуются ссылки на сайты партнеров по линкообмену. Платный обмен ссылками никогда не приветствовался поисковыми системами, а на сегодняшний день это и вовсе один из самых отсталых способов раскрутки сайта. Если вы не можете отказаться от страницы links.htm, замените ее заголовок чем-нибудь близким по смыслу, например «partners.htm» или «coolsites.html».

Фильтр для сайтов, участвующих в системах платного обмена ссылками. Алгоритм Google выявляет все сети платного обмена ссылками и налагает штрафы на сайты, участвующие в таких сетях – высоким рейтингом поисковой системы они похвастаться не смогут. Тем не менее, схема платного обмена ссылками может сослужить вам хорошую службу в некоторых ситуациях. Например, если вы создаете сайт ради того, чтобы получать прибыль от рекламы в AdSense и не собираетесь тратить время на раскрутку, сеть платного линкообмена позволит вам быстро набрать большое количество обратных ссылок. Вот некоторые полезные материалы по теме: статья Джо Вайта о 15 типах ссылок поможет развить сеть входящих ссылок на сайт. Статьи Мэтта Каттса (эта и вот эта), а также материалы на www.searchengineguide.com и www.webmasterworld.com расскажут о фильтре подробнее.

Фильтр для генераторов ссылок. Автоматическими генераторами ссылок (или linkfarms) называют страницы и сайты, которые содержат большой объем ссылок, как правило, не связанных общей тематикой. Если Google заметит, что ваш сайт входит в подобную сеть, в лучшем случае вы потеряете рейтинг в выдаче. В худшем вас забанят. Единственный способ обойти фильтр – это, как ни парадоксально, не участвовать в системе автоматической генерации ссылок.

Фильтр взаимного цитирования. Этот фильтр – еще одна причина быть разборчивее при выборе партнера по обмену ссылками. Скажем, сайт N ссылается на ресурсы по тематике казино и порно, а также на вашу страницу. Вы, в свою очередь, также разместили ссылку на N. Из этого Google сделает вывод, что тематика вашего сайта связана с казино или порно. Помните, что непродуманная система взаимного цитирования повредит вашему рейтингу в поисковой системе и усложнит раскрутку по нужным ключевым словам. Статья Патрика Гэвина поможет при планировании кампании по обмену ссылками.

Сайт, который за краткий срок получает слишком много обратных ссылок, будет отфильтрован Google, а возможно, попадет в банлист всех поисковых систем. Выход – не участвовать в сомнительных схемах раскрутки сайтов и читать статью Аарона Уоллса.

Существуют наказания и за слишком быстрое развитие сайта. Поисковой системе не понравится, если на вашем сайте каждый день будет появляться новая тысяча страниц. Вы, скорее всего, будете заподозрены в автоматической генерации материалов, и, в зависимости от отягчающих вашу вину обстоятельств, ваш сайт либо окажется в Omitted\Supplemental Results, либо в бане.

Как обойти ограничение фильтра: если вы и в самом деле автоматически создаете страницы, установите ограничение для генератора. Приемлемое значение – 5000 страниц в месяц. Если ваш сайт пользуется хорошей репутацией или очень популярен, коэффициент допустимого прироста может повыситься.

Фильтр для сайтов с битыми ссылками. Если на сайте нарушена система внутренней перелинковки страниц, часть из них не будет проиндексирована поисковыми роботами. Возможно, что и посетители сайта не найдут некоторые страницы – пойдет ли это вам на пользу? Подстрахуйтесь – создайте карту сайта в файле sitemap, проверьте, все ли ссылки рабочие, при помощи специальных программ.

Фильтрация по времени загрузки страницы. Если во время работы краулера страницы будут загружаться слишком медленно, робот обождет положенное время и двинется по сайту далее. В результате страница никогда не попадет в кэш поисковой системы и не будет проиндексирована. Следовательно, и в выдаче поисковой системы она никогда не окажется. Оптимизируйте страницы сайта для максимально быстрой загрузки. Если на сайте много изображений или flash-роликов, их загрузке должно предшествовать появление javascript кода для краулера. Установите для себя ограничение по максимальному размеру файла на сайте, пользуйтесь достижениями CSS и Web 2.0.

Чрезмерное рвение в оптимизации наказуемо. Не переполняйте тексты на сайте ключевыми словами. Вас могут принять за Black Hat SEO и ваш сайт попадет в бан.

Комментарий SeoWeblog.ru:
Автор проделал большую работу по компиляции наиболее популярных СЕО теорий про Google. Однако, стоит обратить внимание на расхождение вышеуказанных утверждений хотя бы с источниками, приведенными самим автором:

Google Bombing: Google утверждает, что такой фильтр будет применяться только к тем сайтам, владельцы которых не хотели бы быть найденными по соответствующим запросам (и оставляет в секрете механизм дифференциации). Достаточно посмотреть на выдачу по популярным запросам, чтобы убедиться, что остальным это пока не грозит.

Google Trustrank: Единственная внятно сказанная вещь по поводу trustrank это «чем старше, тем лучше». Остальное порождает больше вопросов, чем ответов: влияет ли текст внешней ссылки на trustrank? Может ли внешняя ссылка привести к уменьшению trustrank? Откуда изначально взялись сайты с высоким trustrank? Мнений достаточно, но автор предпочел избежать сложностей.

Google -30: Это спаммерский фильтр. Поэтому «обычно» делать уже нечего. Фильтр имеет временный характер и за ним следует исключение из выдачи. А вот в тех «необычных» случаях, когда он был применен по ошибке (сначала-то слух шел про якобы болтливого сотрудника Google, который руками раздавал -30), запрос на включение может помочь. Наверное. Есть среди наших читателей такие счастливчики?

По материалам статьи на www.joe-whyte.com.

Метки:

Добавить комментарий