статьи и информация о SEO
RSS иконка EMail иконка Домашняя иконка
  • Фильтры против спама в гугле

    Написано Июнь 22nd, 2009 admin Нет комментариев

    В этой статье будут рассмотрены кое-какие фильтры, которые использует поисковая система Google, для того, что бы отсеять постоянно растущее количество спам-ресурсов, а так же другие недобросовестные проекты, выдача которых в серп будет не релевантна поисковым запросам. Сразу же оговоримся, что основные (самые известные) алгоритмы уже освящены в отдельных статья на bigfozzy.com — поэтому, в этой статье вы не найдете информации относительно песочницы (Sandbox), а так же фильтра именуемого Google Bombing.

    Зато, прочтете про кое-что другое — не менее важное и полезное, да и лишние знания не помешают, как говорится.

    Первым делом остановимся на Google Duplicate Content Filter. Этот фильтр направлен на то, что бы отсеять сайты, которые содержат жестокий плагиат с чужих ресурсов. Очень часто можно услышать совет, что перед тем, как у кого-то что-то украсть и запостить у себя (имеется в виду текстовое наполнение), то следует немного переделать этот оригинальный материал, ибо гугл не жалует ворованный контент и не позволякт такой странице подняться в выдаче, т.е. банит.

    Это и есть результат работы вышеназванного фильтра. Вообще-то, называть это баном не совсем корректно — алгоритм фильтра устроен так, что сайт помещается в специальный результат поиска, который именуется supplementary results (т.е. дополнительные результаты поиска) или же попадает в другой, тоже не менее приятный раздел, под названием omitted search results (результаты опущенный за незначительностью). Так что, будьте аккуратны когда что-то тырите — лучше уж немного попотеть над контентом, чем потом вылезать из вышеназванного фильтра. Ну, а если есть потребность посмотреть, что же воруют непосредственно у Вас, то посетите это место — очень полезный сервис.

    Но вернемся к гугловским анти-спамерским примочкам. При оптимизации сайта следует опасаться еще одного фильтра, именуемого Google -30. Принцип работы таков — если система определяет Вашу деятельность как нарушение, то сайт пессимизируется на 30 позиций в выдаче.

    Что же это за нарушения?

    Разумеется речь идет о любом виде black-seo — если гугл это спалит, то сайт не поднимется выше 31-й позиции в серпе. Сюда следует отнести прежде всего спам на форумах, гостевухах, блогах и т.п. Неграмотное использование Java Script редиректа так же повлечет вышеописанные последствия. Рекомендуется использовать 301-й редирект (т.н. 301 Moved Permanently).

    Если гугл решит, что сайт похож на дорвей, то так же будет применен фильтр Google -30. Что бы избавиться от нахождения ниже 30-й позиции, следует устранить причины, которые повлекли за собой эту беду, т.е. надо убрать спам — сайт выйдет из фильтра автоматически (придется, конечно подождать какое-то время).

    Еще один фильтр можно определить, как «фильтр взаимного цитирования». Уже давно известно, что меняться ссылками надо с умом — с кем попало не стоит. Если Ваш сайт ссылается на ресурсы, которые не соответствуют вашей тематике, а они ссылаются на Вас, то это даст повод гугловской машине помешать Вашему ресурсу появляться в первых рядах по нужным ключевым словам.

    Немаловажный аспект — всегда следует быть разборчивым и проводить кампанию по обмену ссылками только с тематически близкими сайтами.

    Существуют еще кое-какие фильтры, но они выполняют скорее техническую функцию — например, что бы не перегружать и без того занятого бота. Фильтры, отсеивающие сайты на которых имеются битые ссылки или ресурсы, загрузка которых занимает продолжительное время — из их числа.

    Но поскольку это не из области спама, то, в настоящий момент, обойдем их вниманием — прочтете о них в другой сатье.

    Остается только добавить, что если Вам известно что-то более конкретное о вышеперечисленных гугловских фильтрах, то пишите на наш форум, не стесняйтесь!