Yandex ludens
Вряд ли кому из нас придет в голову оспаривать следующее утверждение: поисковые системы сегодня представляют одно из наиболее динамично развивающихся направлений Интернета. Если Вы пользователь, который обращается с запросом к поисковой машине, Вы заинтересованы найти то, что нужно, затратив на поиск минимум времени и сил. Если Вы являетесь владельцем сайта, Вы нуждаетесь в том, чтобы он присутствовал в начале списка результатов выдачи ведущих поисковых машин, поскольку именно это будет залогом его посещаемости (читай, его успешности). По простейшим законам логики поисковые системы становятся той точкой, где происходит пересечение интересов пользователей, владельцев сайтов и, не стоит об этом забывать, владельцев собственно поисковых порталов, поскольку эти порталы, как ни крути, сами являются серьезными коммерческими проектами. Так как все указанные интересы имеют весьма существенный денежный эквивалент, точка их пересечения перестает быть простой точкой отсчета и становится ареной нешуточных разборок, так хорошо скрываемых поисковиками от пользователей (хоть, как говорят, шила в мешке не утаишь) и так активно обсуждаемых «оптимизаторами» сайтов, в силу их кровной заинтересованности в результатах своей работы.
Заклинатели ветра
Термин поисковая оптимизация происходит от английского «search engines optimization». Данное направление в последние годы получает все более широкое развитие в Рунете и представляет один из основных и наиболее действенных методов, отвечающих за успешность любого Интернет-проекта. Однако, несмотря на все возрастающую серьезность подхода к поисковой раскрутке, при все улучшающейся информационной базе и даже учитывая разработку и применение специального программного обеспечения для нужд SEO, есть факторы, за которые не может отвечать никто. Это корректная работа алгоритмов поисковиков.
Алгоритмы работы поисковиков не принято публиковать, и об их изменениях никто никого заранее не предупреждает. В первую очередь это связано с тем, что в попытках попасть на первую страницу результатов поиска по профильным, т.е. относящихся к тематике сайта, запросам оптимизаторы часто идут до победного конца, используя все возможные методы. В связи с этим, историю любого поисковика можно подробнейшим образом описать в свете его постоянной борьбы с замусориванием поисковым спамом. Данная проблема отнимает много сил и средств у коллектива любого поискового проекта, поскольку за его работу разработчики отвечают перед пользователями. А какому пользователю доставит удовольствие наличие в выдаче нетематических ресурсов или, к примеру, бесконечных дорвеев?
У истоков ранжирования сайтов поисковиками стояли текстовые критерии, поэтому позиционирование в поисковой системе сводилось к накачиванию контента сайта ключевыми словами. Вариантов оптимизаторы придумали немало: от использования примитивного, скрытого для обычного пользователя, текста до «облагораживания» исходного текста в соответствии со специально рассчитанными «весами» слов (качество/количество). Постепенно в дополнение к текстовым алгоритмам ранжирования пришли нетекстовые или ссылочные критерии. Примером последних можно считать повсеместно используемый сегодня так называемый взвешенный индекс цитирования Page Rank или его аналоги. Данный индекс учитывает как много ссылок имеется в Сети на Ваш сайт и насколько авторитетны ссылающиеся на Вас сайты, что несомненно прибавляет работы поисковым машинам, вынужденным распутывать бесконечные нити виртуальной паутины связей. Однако, положенный в основу, данный алгоритм ранжирования сайтов не только не решил всех проблем релевантности (соответствия) поиска запросу, но и не прекратил активной работы оптимизаторов сайтов по продвижению на такие заманчивые первые места. Поэтому, совершенствуя свою работу, поисковые системы старались не только максимально удовлетворить запросы пользователей, но и максимально оградить свои механизмы работы от вьющихся вокруг «доброжелателей». Явный дефицит информации на тему алгоритмов породил в свою очередь огромное количество домыслов и вымыслов. Как это ни парадоксально, на SEO-форумах постоянно активно обсуждается то, что «ни пощупать, ни увидеть, ни оценить» не представляется возможным.
Тем не менее, по мере того, как Интернет на нашей территории медленно и верно перерастал времена дикого запада, в погоне за золотыми ключиками поисковых алгоритмов перед оптимизаторами встала
дилемма «черных» и «белых» методов. Разделение это весьма условно и отражает по сути только тот факт, что «белая» оптимизация несомненно связана с улучшением пользовательских качеств продвигаемых сайтов, а значит, идет на пользу посетителям и не должна вызывать справедливой агрессии со стороны поисковых систем. Однако, традиции есть традиции. В лучшем случае, поисковые системы Рунета сегодня декларируют нейтральное отношение к оптимизации как к неизбежной стороне жизни сайтов в условиях постоянно повышающейся конкуренции. И все же, на практике никто из них не торопится развивать сотрудничество с оптимизаторами. Попытки же со стороны оптимизаторов все время «оставаться на коне» можно без шуток соотнести с работой предсказателей погоды, не поставленных в известность о данных метеоспутников. В пользу того, что до недавнего времени сохранялся именно такой порядок дел в Рунете наглядно свидетельствовал массовый переполох, отмеченный в оптимизаторских кругах во время прошлогоднего апдейта Яндекса.
Черный вторник 2004-го. Оптимизаторы и пессимизаторы?
Релевантность — не термин, а понятие.
Каждый вкладывает в него свой смысл,
а Яндекс вкладывает по нескольку смыслов на день:
(из высказываний недовольных оптимизаторов, март 2004)
Сегодня «Яндекс» представляет крупнейший российский портал, обладающий самой полной базой документов среди Рунетовских искалок и, пожалуй, самой узнаваемой маркой. Основу доходов компании составляет поисковая реклама, на которую приходится до 80% годового оборота. Приверженность пользователей поисковой системе Yandex.ru подтверждается данными глобальной статистики Рунета. Более 50% поискового трафика генерируется именно этим поисковиком (для сравнения, на долю Rambler’a приходится около 20%, и еще меньше — на долю Google’a). Подобная популярность данной поисковой машины привела к тому, что подавляющее большинство оптимизаторов занимается оптимизацией «под Яндекс», ориентируясь в своей работе именно на него. Однако, отношение Яндекса к поисковой оптимизации можно охарактеризовать фразой из Гоблиновского перевода: «догони меня, чувак, если сможешь». Явная неприязнь разработчиков поисковой системы к оптимизаторскому бизнесу привела к тому, что в ходе усовершенствования собственных алгоритмов ранжирования, Яндекс с удовольствием портил оптимизаторам нервы. Процесс неровных отношений достиг своей кульминации в марте 2004 года, когда Яндекс поменял алгоритм ранжирования. Апдейт вызвал нечто, напоминающее панику на крупной бирже. В течение недели люди наблюдали резкие и, часто, неоправданные скачки в выдачах поисковика. В первые дни складывалось впечатление, что выдача велась по параметрам, мало имеющим отношение к содержимому страницы. При всем при этом Руководство поисковика заняло позицию «non comments» и только через неделю выступило с публичными пояснениями, которые на удивление ничего не поясняли.