Google чистит выдачу не только руками пользователей, но и алгоритмически

Google объявил об изменении в алгоритме ранжирования, который должен значительно повысить качество выдачи.

Компания  с недавнего времени ведет планомерную войну против бирж контента (так называют в буржурнете большие группы низкокачественных сайтов, основной целью которых является привлечение поискового трафика  за счет размещения больших объемов бесполезного контента.

Google не рассказывает слишком подробно о работе нового алгоритма, однако признает, что он повлияет на ранжирование сайтов по 11.8% запросов к поисковику. Пока речь идет лишь о работе Google в США, но компания планирует со временем расширять географию действия нового алгоритма.

Рассказывая об изменениях в поисковом алгоритме, сотрудники Google делают акцент на том, что компания не использовала при их запуске данные, собранные с запущенного недавно приложения к браузеру Chrome, которое дает пользователям возможность заблокировать в своей выдаче некачественные сайты, занявшие высокие позиции. При этом, утверждает Google, результаты работы нового алгоритма в 84% случаев отсеивают те же сайты, которые блокируют в выдаче пользователи.

По предположению Techcrunch, Google пытается таким образом избежать манипуляций над самим инструментом сбора данных о спамерских сайтах (вместо работ по оптимизации сайтов, с помощью нанятых «пользователей» можно сливать добропорядочных конкурентов из выдачи).  Кроме того,  если компания признает, что повысить качество поиска можно таким незамысловатым способом ручного сбора данных о заблокированных пользователями сайтах, это сильно ударит по репутации Google, ставя под сомнение «магические» поисковые алгоритмы.

© Компания Вебджем.рф 2009 - 2022


.