Google меняет алгоритм ранжирования содержимого веб-сайтов

28/02/2011 13:13

Google вновь модернизирует свой поисковый алгоритм. В компании говорят, что новый алгоритм значительно более требователен к сайтам, глубже анализирует контент и отдает предпочтение проектам, публикующим оригинальную информацию, развернутые данные, в то же время обеспечивает борьбу с нелегальными методами "оптимизации" и "продвижения" веб-сайтов, в том числе с применением копированию чужого контента. В компании говорят, что новый алгоритм был внедрен несколько дней назад и еще несколько дней потребуется, чтобы все поисковые машины Google его реализовали в своей части поискового индекса. По словам пресс-службы Google, улучшения, внедренные в алгоритме будут способствовать росту рейтингов "высококачественных сайтов", в то же время поисковая система позаботится о том, чтобы сайты с контентом "низкого качества" были опущены вниз рейтинга. Амит Синхал, один из ведущих разработчиков Google, говорит, что ранее компания уже начала воевать против контент-ферм в интернете - сайтов, которые в огромных количествах размещают различный рекламный материал, статьи украденные с других сайтов, а также прочую информацию, призванную лишь для того, чтобы обмануть поисковые системы и искусственно завысить рейтинг сайта. Мэтт Каттс, старший инженер Google, говорит, что под качественным контентом компания понимает оригинальную информацию, например исследования, глубокие и развернутые статьи и отчеты, широкую аналитику и различные вспомогательные материалы, призванные еще больше раскрыть суть контента. Соответственно, критерии отбора информации будет определять новый алгоритм. Пресс-секретарь Google говорит, что компания не может публиковать все данные, касающиеся особенности работы новой версии алгоритма. "Мы не хотим давать плохим актерам возможность играть с нашим алгоритмом и снижать качество информации для пользователей", - заявил представитель компании.
Источник