Ориентированность на пользователя и человеческий фактор: ранжирование в Google

В этом материале мы кратко и просто (насколько это возможно, разумеется) попробуем рассказать владельцам сайтов и блогов про поисковый алгоритм Panda, который разработан программистами Google и активно действует как в англоязычном, так и в русскоязычном сегментах сети. Все, что будет сказано ниже, предельно важно, поскольку прямым образом влияет на позиции сайта или блога в Google.

Если ваш ресурс является обычным веб-представительством компании — то есть, по сути, несет функции офиса с табличками о часах работы и схемами проезда к складам, то данная информация вам не понадобится и лучше не забивать ей голову. Однако, если сайт (блог, интернет-магазин, форум, портал и т.д.) борется за топовые места выдачи Google по конкретным поисковым запросам, особенно в высоко-конкурентных тематиках, то специалисты ТАОТ настоятельно рекомендуют ознакомиться с ним.

От этого зависит реальный успех или провал сайта, а также его перспективы на среднесрочный период.

Итак, Panda — это порядок ранжирования сайтов в Google (то есть механизм построения выдачи этой поисковой системой). Впервые в русскоязычном сегменте сети Google запустил его более 5-ти лет назад и распространил действие этого поискового алгоритма практически на все сегменты интернета. Интересно, что для англоязычного интернета алгоритм Panda был введен на полгода-год ранее. Разумеется, за все те годы, которые прошли с момента апробации нового порядка ранжирования, алгоритм постоянно обновлялся и продолжает соврешенствоваться.

Вкратце основные особенности и приоритеты поискового алгоритма Panda можно охарактеризовать как ориентированность на пользователя и человеческий фактор. Разумеется, программно эта разработка учитывает и другие факторы, так или иначе характеризующие качество сайта или блога. В частности, это оригинальность и неповторимость содержания (включая графическое наполнение), релевантность размещенных рекламно-информационных материалов основной тематике сайта, объем и качество входящей ссылочной массы.

Однако, повторимся, что сегодня базисом при комплексной оценке всех факторов является именно ориентированность на пользователя, при этом алгоритм, как и любая программируемая среда, может в любой момент быть «подкручен», то есть значение/влияние отдельных факторов может быть усилено или ослаблено.

Алгоритмы ранжирования Google

Разумеется, не в правилах поисковых систем информировать владельцев сайтов и блогов о том, как именно настраиваются их алгоритмы. Это было бы неразумно с их стороны и вызвало бы вполне прогнозируемое манипулирование выдачей со стороны продвинутых вебмастеров и авторов контента (текстовиков-копирайтеров). Однако, общие положения и требования к сайтам и блогам программисты Google не скрывают, они имеются в открытом доступе. Более того, на соответствующих ресурсах их можно открыто обсуждать, в том числе задавать вопросы ответственным сотрудникам этой поисковой системы.

По опыту специалистов TAOT.RU в российском сегменте сети (не путать с русскоязычным сегментом!) распределение поискового трафика для среднестатистических сайтов и блогов в целом выглядит так (разумеется, данные условно-усредненные):

  • Яндекс — 55%;
  • Google — 35%;
  • Прочие поисковые системы — 10%.

То есть доля Google превышает треть брутто-посетителей с поиска и любой владелец сайта или блога, пребывающий в трезвом уме, терять столь существенную долю пользователей не захочет. Однако? станет ли этот именитый поисковик и дальше направлять на сайт или блог такое существенное количество посетителей? Это в значительной мере зависит от владельца веб-ресурса или коллектива администраторов (вебмастеров, фотографов, модераторов, авторов текстов — статей, описаний, комментариев), занимающихся его текущей поддержкой и наполнением. Причем, степень влияния качества их работы может быть даже не значительной, а абсолютной, по крайней мере применительно к действию поискового алгоритма Panda.

Всесторонний учет поведения пользователя на сайте

Теперь — чуть больше конкретики. Ориентированность на пользователя и человеческий фактор — это всесторонний учет поведения пользователя на сайте. Благодаря тонкой настройке и долгой «обкатке» алгоритма Panda топовые позиции в выдаче Google теперь действительно занимают веб-проекты, реально полезные людям. А ведь еще пять лет тому назад выдача этой поисковой системы не отличалась чистотой, да и манипулировать результатами поиска можно было без особых программно-технических ухищрений. Учет поведения пользователя включает в себя общее время, который тот проводит на сайте, а также количество возвращений данного пользователя на этот сайт. Под сайтом в данном случае мы подразумеваем любой веб-ресурс (интернет-магазин, портал, блок, посадочную страницу, форум, справочник и т.д.). При этом Panda контролирует поведение пользователя на сайте, то есть фиксирует:

  • осуществлял ли тот переходы по внутренним ссылкам;
  • копировал ли материалы;
  • на каких страницах задерживался дольше, а какие игнорировал;
  • внес ли сайт в закладки;
  • порекомендовал ли этот ресурс кому-либо и т.д.

После чего программно анализируется соответствие поведения поисковому запросу и тому, сумел ли сайт удовлетворить интерес пользователя.

Конечно, трудно поверить, что искусственный интеллект (вкупе с тончайшими программными настройками) добился таких поразительных успехов буквально за несколько лет, но факт остается фактом — поисковый алгоритм Panda работает почти безупречно. И это важная информация для владельцев сайтов и блогов, которая позволит им сделать правильные выводы и выстроить грамотную политику развития (реструктуризации, обновления, редизайна) своих веб-проектов, сделав их удобными, реально полезными и привлекательными.

Оригинальность и неповторимость содержания сайта

Оригинальность и неповторимость содержания (текстового и графического) оценивается поисковым алгоритмом чисто математически. Panda строго вычисляет процент неуникального (заимствованного) материала как на каждой отдельной веб-странице, так и на всем ресурсе в целом. Разумеется, неоригинальное содержание резко подрывает доверие Google к сайту в целом, это безусловно отражается на позициях в выдаче. Что касается уникального содержания, то его качество оценивается по отдельным параметрам, среди которых такие как лингвистика, стилистика, шаблонность (смысловая похожесть), общее количество символов на материал (включая среднеарифметическое значение для всего сайта), а также соответствие страницы поисковому запросу (или нескольким «ключам»).

Для поискового алгоритма не является проблемой отыскать в сети так называемый «исходник», даже если текст страницы был переписан автором с заменой слов, и даже если был изменен первичный поисковый запрос. Мы ставим особый акцент на этом факторе и предупреждаем владельцев сайтов и блогов: не заказывайте «простой рерайт». Это бессмысленная трата денег и прямая угроза сайту. В идеале материалы следует компилировать минимум из двух источников, а их комплексную переработку должны вести авторы, в совершенстве знающие современные веб-технологии, например, специалисты ТАОТ.

Кстати говоря, самым осторожным владельцам сайтов и блогов, монетизирующим свои ресурсы через якобы безопасные системы статейного маркетинга (Миралинкс и подобные) хотим порекомендовать, во первых, внимательно смотреть — на что ссылаетесь (качество и тематика сайта), а во вторых — не доверять псевдо уникальности текстов, предоставляемых заказчиками. В противном случае рано или поздно Panda зловеще напомнит о себе. Причем для этого достаточно преодолеть барьер 3-5% статейности.

О рекламно-информационных материалах

Теперь о рекламно-информационных материалах, размещенных на сайте. Если интернет-магазин, реализующий бензопилы и электроинструмент, разместит рекламу подгузников, то это точно не прибавит ему доверия со стороны Google. Поисковый алгоритм в доли секунды вычислит несоответствие тематик и понизит сайт-нарушитель в выдаче. Собственно говоря, такая настройка алгоритма призвана «зачистить» интернет от неразборчивых владельцев сайтов и блогов, размещающих все подряд.

Говоря о рекламно-информационных материалах, мы имеем ввиду не только контекстные объявления, но и исходящие ссылки, особенно размещаемые в автоматическом режиме через системы линк-брокеров. Речь не о том, что это плохо (утверждение аксиоматично по определению). Это просто призыв к разумности в данном вопросе или, как минимум, к строгому соблюдению режима тематичности. А с количеством исходящих все математически просто — чем их больше, тем хуже. Однако, не всегда и не на всех страницах. Но это секреты, которыми мы делиться не станем, поскольку сие есть наш хлеб насущный, тяжелый и многотрудный.

Далее о входящей ссылочной массе (исходящую мы уже обсудили). Для поискового алгоритма Panda вопрос соответствующей, а лучше единой тематики — принципиальный и однозначный. Google, как и Яндекс, вполне лояльно относится к обмену ссылками между тематично-близкими сайтами. Программно этот фактор обсчитывается как общее информационное пространство. Соответственно, приличный массив входящего тематичного ссылочного — положительный момент при ранжировании, однако далеко не определяющий.

При этом Google, по нашим наблюдениям, «любит» более системную ссылочную массу (в ракурсе тематики сайта), а Яндекс «считает» определенную разбавленность анкоров (и некоторый размыв тематичности) показателем естественности входящих ссылок.


Вывод. В нынешних условиях любой владелец сайта или блога даже при незначительном объеме входящего ссылочного может добиться весьма высоких позиций в Google. Поисковый алгоритм Panda ему в этом не помеха, а, скорее, добрый помощник. А как именно и за счет каких факторов можно занять топовые позиции в поиске, мы уже пояснили в этом материале. Плюс терпение на несколько месяцев вперед, поскольку Google настороженно относится к «молодым да ранним» и «озорным сорванцам», пусть и действующим строго в соответствии с его рекомендациями.