Категория > Новости мира Интернет > Google работает над алгоритмом, направленным против агрегаторов-копипастеров - «Интернет»
Google работает над алгоритмом, направленным против агрегаторов-копипастеров - «Интернет»30-08-2011, 04:02. Автор: Warren |
Google надеется на помощь веб-мастеров при решении проблемы копипаста на сайтах-агрегаторах контента и их более высоком ранжировании в поисковой выдаче, чем сайтов-источников. Глава подразделения Google по борьбе со спамом Мэтт Катс (Matt Cutts) опубликовал призыв о помощи в своем Twitter. В настоящее время корпорация ведет активное тестирование нового алгоритма, направленного на борьбу с агрегаторами-копипастерами и собирает примеры таких сайтов через специальную форму, расположенную здесь. Собранная таким образом информация будет использована для тестирования разрабатываемого алгоритма. В данную форму необходимо ввести точный запрос, по которому вместо оригинального контента на высокие позиции в поисковой выдаче выходят агрегаторы. Кроме того, необходимо указать точные URL-адреса страниц с оригинальным и ворованным контентом. Агрегаторы, которые копируют контент с других сайтов, приравниваются поисковиком от Google к веб-спаму, так как их основная цель состоит в заработке денег через контекстную рекламу и партнерские программы. Никакой пользы рядовому пользователю такие сайты не приносят. Напомним, что после запуска первой версии фильтра Google Panda в феврале текущего года, форум Google, созданный для помощи веб-мастерам стремительно заполнился сообщениями о том, что качество поисковой выдачи значительно ухудшилась. Именно агрегаторы во многих случаях оказались на более высоких позициях, чем сайты с оригинальным контентом. Спустя несколько месяцев (в середине июня текущего года) была запущена очередная версия фильтра Google Panda – под номером 2.2, которая и была направлена на борьбу против сайтов-агрегаторов. Совершенно очевидно, что и фильтр Google Panda версии 2.2 не смог решить эту проблему. Именно поэтому теперь Google обратился за помощью к веб-мастерам и создает отдельный алгоритм (а скорее очередной фильтр), направленный на борьбу с сайтами, которые автоматически копируют контент. Перейти обратно к новости |