House of Horse. Главная

Сайтостроение

Создание сайта Раскрутка сайта Заработок на сайте ...еще о сайтостроении

Анализ главных 16-ти фильтров Google

Google – крупнейшая в мире поисковая система, к тому же одна из самых авторитетных. Пожалуй, каждый веб-мастер, когда разрабатывал свой первый сайт, и даже если и не первый, мечтает чтобы он попал в десятку поисковой выдачи по выбранной тематике. Но, конечно, вначале это не у всех получается, почему? Все зависит от фильтров Google. Проанализируем каждый из них:

1. Google Sandbox: ну куда же без него. Это песочница Google! Когда вы создаете новый сайт и попадаете в индекс Google, ваши позиции в выдаче минимальны, это так называемый "первый шаг" для каждого сайта. Уйти от этого фильтра вы не сможете. Со временем он сам исчезает по мере оптимизации и раскрутки сайта.

2. Google - 30: тоже достаточно интересный фильтр. Если он используется, ваш сайт понижается на 30 позиций вниз. Он применяется только для злых сайтов, на которых есть подозрения в нечестных методах раскрутки, так называемом черном SEO. Если вы этого вовремя не заметите и не прикроете, и подозрения Google оправдаются – ваш сайт ждет жестокий Бан! С Гуглом ваш сайт распрощается уже окончательно.

3. Google Bombing: его применяет поисковая система, когда на сайт ведут много ссылок с одинаковым содержанием внутри тега <a>. Данный фильтр стал использоваться относительно недавно, это связано с изменениями в алгоритмах подсчета PageRank на TrustRank и PhaseRank.
История этого фильтра: Активисты сайтостроительства договорились и поставили у себя на страницах сайтов ссылку в адрес Белого Дома на страницу Дж. Буша, а в теги <a> была сделана надпись: "Неудачник, проходимец". Через некоторое время - на первую позицию по запросу в Google "Неудачник" или "проходимец" - первая ссылка вела на персональную страницу Дж. Буша. Google вовремя среагировал, ввел фильтр, а ту ссылку отправил вниз в выдаче.
Время прошло, а фильтр остался.

4. Google Duplicate Content Filter: Если сайт использует неуникальный, дубликатный контент. Данный фильтр применяется к сайтам, не имеющим у себя уникального контента, и в результате они не могут подняться на высокие позиции в поисковой выдаче.

5. Google Supplemental Results: если вы продублировали контент, как я сказал, в серпе высоко вас не будет, и ссылка на вашу статью / новость будет идти как дополнительная, то есть после уникальных. Но если таких очень мало, то вы все равно будете иметь свою долю пользователей.

6. Google Domain name Age Filter: Ну я думаю тут все понятно. Чем старше ваш домен, тем больше Google ему доверяет и тем выше он будет идти в серпе. А новые сайты тусуются пока в песочнице. Если же у вас все же сайт старый, но он плохо ранжируется – возможно не хватает ссылок с проверенных ресурсов.

7. Googles Omitted Results Filter: Данный фильтр дополняет жесткий фильтр Google Duplicate Content Filter, в него попадают все неуникальные страницы. Однако небольшой шанс быть выведенным в результате поисковой выдачи у сайта все же есть, если пользователь, осуществляющий поиск, воспользуется "Расширенным поиском", что бывает довольно редко.

8. Googles Trust Rank Filter: Степень доверия Google к вашему ресурсу. Это фильтр очень сложный, поэтому его нельзя одним - двумя предложениями охарактеризовать.

9. Links.htm page filter: а вот тот самый, ужасный фильтр, под него могут попасть сайты, имеющие страницы: Friends.html, Links.html. Поэтому советую использовать нестандартные названия, к примеру: "My_friend_partners.html".

10. Reciprocal Link Filter: Определяет платные ссылки, Google прекрасно находит такие сайты, и накладывает сразу этот фильтр... но не всегда.

11. Link Farming Filter: За участие в рассаднике ссылок. Его применяют для сайтов, принимающих участие в обменах ссылок и непроверенных каталогах. За это накладывается бан.

12. CO-citation Linking Filter: Обоюдное цитирование. Если вы имеете сайт про "автомобили", а на вас ссылается или вы ставите себе ссылку на сайт с порнографией, то Google накладывает фильтр. И продвигаться по слову "автомобили" становится гораздо труднее.

13. To many links at once Filter: Много ссылок сразу. Сразу хочу заметить, что это проблема молодых, не опытных оптимизаторов и веб-мастеров. Когда 24 часа в сутки вы регистрируете сайт в каталогах – это не есть хорошо! Google вас забанит! Стоит все делать постепенно, и ограничиваться 50-80 ссылками в месяц. Также не является хорошим, по мнению Google то, что сразу на сайте откуда-то взялось 10 000 страниц контента! Будьте внимательны!

14. Broken Link Filter: За использование сайтом битых ссылок. Обязательно снимайте их с индексирования, т.к. это может закончиться баном!

15. Page Load Time Filter: Когда страница вашего сайта имеет вес и роботу Google не удалось ее загрузить, тогда...

16. Over Optimization Filter: Ни в коем случае не используйте черную оптимизацию! НЕ переполняйте текст ключевыми словами! Потому что будет беда, бан!


© HouseOfHorse.ru, 2009-2011