Почему в Google труднее раскрутить сайт?

Автор: Нелли Федосенко

Многие вебмастера давно заметили, что раскрутить сайт в Google труднее, чем в Яндекс. Google не терпит страниц, которые не обновляются. Стоит на какое-то время забыть про некоторые страницы — и они тут же вылетают из результатов поиска.

Я раньше думала — это оттого, что Google — такая продвинутая поисковая система (она же Yahoo в свое время победила).

https://sites.google.com/a/ournet.biz/for/analitika/idei/raskrutka-sajta/pocemu-v-google-trudnee-raskrutit-sajt/28-ht1.jpg

Но после того, как начала изучать статистику англоязычного Интернета, поняла, почему так происходит.

Если вы посмотрите количество страниц в результатах поиска по поисковому запросу «книги» в Яндексе, увидите, что в Рунете по этому запросу конкурируют 73 миллиона страниц:

https://sites.google.com/a/ournet.biz/for/analitika/idei/raskrutka-sajta/pocemu-v-google-trudnee-raskrutit-sajt/28-ht2.jpg

По аналогичному запросу в Google («books») конкурируют 988 миллионов страниц (!), в 13.5 раз больше, чем в Рунете (через Яндекс):

https://sites.google.com/a/ournet.biz/for/analitika/idei/raskrutka-sajta/pocemu-v-google-trudnee-raskrutit-sajt/28-ht3.jpg

Все потому, что английским языком владеют гораздо больше людей, чем русским (по Википедии английским языком как основным и вторым владеют 1 млрд 800 миллионов человек против 254 миллионов владеющих русским языком).

Кроме того, англоязычный Интернет начал развиваться гораздо раньше русскоязычного. Большинство международных компаний представлены в Интернете именно на английском языке. Это и привело к огромной конкуренции сайтов на английском языке в Интернете.

Представьте сами — 988 миллионов страниц борются за первые 20 мест в результатах поиска (потому что за остальные места бороться не имеет смысла). Конкуренция сумасшедшая!

Google просто вынужден был вводить более активные механизмы выявления более релевантных страниц по всем поисковым запросам на английском языке. Теперь на первое место выходят страницы, не только содержащие большое количество ключевых слов, но и наиболее часто обновляющиеся.

Это как в физике. Сначала мы изучаем статику, потом равномерное движение, потом ускорение (нам уже мало одно значение скорости, нам нужно узнать, как быстро она увеличивается).

Но так как Google — одна большая поисковая машина, она не может для Рунета вводить отдельные механизмы подсчета релевантности. Поэтому для Рунета действуют такие же жесткие законы отбора, как и для всего высококонкурентного англоязычного Интернета.

Придет время — и Яндекс предъявит к страницам на русском языке тоже достаточно жесткие требования (уже сейчас он избавляется от множества страниц только по той причине, что они неинтересны).

Так что чем дальше, тем круче (не зря у большинства даже продвинутых англоязычных сайтов, как правило, поисковый трафик составляет небольшую долю всего трафика).

Если раньше для раскрутки сайта достаточно было много и интересно писать, то сегодня этого мало. Нужно еще знать законы, по которым тот или иной поисковик высчитывает релевантность страниц. И не только знать, но и замечать новые интересы поисковиков (потому что поисковикам стоять на месте сегодня тоже нельзя, они вынуждены развиваться под напором миллионов и миллиардов новых страниц).