Google чистит выдачу не только руками пользователей, но и алгоритмически
Компания с недавнего времени ведет планомерную войну против бирж контента (так называют в буржурнете большие группы низкокачественных сайтов, основной целью которых является привлечение поискового трафика за счет размещения больших объемов бесполезного контента.
Рассказывая об изменениях в поисковом алгоритме, сотрудники Google делают акцент на том, что компания не использовала при их запуске данные, собранные с запущенного недавно приложения к браузеру Chrome, которое дает пользователям возможность заблокировать в своей выдаче некачественные сайты, занявшие высокие позиции. При этом, утверждает Google, результаты работы нового алгоритма в 84% случаев отсеивают те же сайты, которые блокируют в выдаче пользователи.
По предположению Techcrunch, Google пытается таким образом избежать манипуляций над самим инструментом сбора данных о спамерских сайтах (вместо работ по оптимизации сайтов, с помощью нанятых «пользователей» можно сливать добропорядочных конкурентов из выдачи). Кроме того, если компания признает, что повысить качество поиска можно таким незамысловатым способом ручного сбора данных о заблокированных пользователями сайтах, это сильно ударит по репутации Google, ставя под сомнение «магические» поисковые алгоритмы.
_gaq.push(['_setAccount', 'UA-21136901-1']);
_gaq.push(['_trackPageview']);
var ga = document.createElement('script'); ga.type = 'text/javascript'; ga.async = true;
ga.src = ('https:' == document.location.protocol ? 'https://ssl' : 'http://www') + '.google-analytics.com/ga.js';
var s = document.getElementsByTagName('script')[0]; s.parentNode.insertBefore(ga, s);
})();