Вы здесь

В большинстве случаев, вебмастера, которые начинают продвигать свои веб-ресурсы, не имеют ни малейшего представления о том, как же именно устроены системы информационного поиска, а также про алгоритмы, применяемые в качестве методов, занимающихся качественной оценкой сайтов. На наш взгляд, качественная работа по оптимизации и продвижению интернет-сайтов зависит от знания теоретических аспектов, подтвержденных практическими результатами на больших выборках. Именно в ходе крупномасштабных экспериментов отсеивается большинство гипотез и слухов, составляющих основу сегодняшнего продвижения сайтов, оставляя место только правилам (например, степенной закон) и подтвержденным фактам.
Настоящим материалом мы делаем обзор некоторых методик по вычислению поискового спама. Однако, если большинство статей занимаются освещением алгоритмов анализа гиперссылочных структур (таких, как TrustRank, Truncated PageRank, DiffusionRank, AIR и т.д, то в данном случае мы будем заниматься рассмотрением технологий, позволяющих решать поставленные задачи посредством анализа данных пользовательского поведения. Сейчас мы затронем наиболее значимые с нашей точки зрения алгоритмы, которые, в подавляющем своем большинстве, будут использовать как данные поисковых логов, так и логов просмотра. Прежде всего давайте попытаемся ответить на вопрос о том, зачем же поисковым машинам потребовалось анализировать данные пользования в такой специфичной проблеме, как поисковый спам? Дело в том, что как бы ни были хороши алгоритмы анализа гиперссылочных структур, они не являются совершенными и поисковые системы были заинтересованы в улучшении их производительности не только за счет инструментов машинного обучения, но и посредством учета особенностей пользовательского поведения. Именно по этой причине, к общим, традиционным методам, позволяющих обрабатывать контент страниц (если мы говорим об алгоритмах анализа содержимого), а также исследовать их ссылочное окружение, было решено добавить анализ пользовательского поведения.
Вообще, на сегодняшний день поведенческие факторы активно используются в задачах ранжирования результатов органической выдачи и такие алгоритмы, как BrowseRank и его более совершенная модификация ClickRank, не могли не остаться без нашего пристального внимания. Конечно, при более детальном изучении этих методов ранжирования оказывается то, что в задачах идентификации, а также сепарации качественных и некачественных ресурсов они несколько уступают классическим алгоритмам ссылочного анализа, таким как Google PageRank и TrustRank в том случае, если последние выполнены не на оригинальном гиперссылочном веб-графе, а на графе пользовательских просмотров. Иными словами, для поисковой системы важен не столько выбор того или иного ссылочного алгоритма, сколько сам факт учета пользовательского поведения в любом из них. Более подробную информацию по данной теме вы можете получить на сайте компании "SEO-константа", которая хоть и осуществляет продвижение сайтов по региону Санкт-Петербург, располагает базой научных материалов, интересных всем специалистам, не зависимо от региона. Наш интернет-адрес: wseob.ru
Добавить комментарий