ГлавнаяНовости рекламной отрасли → 12.03.2015 →

Google представляет новый алгоритм — Knowledge-Based Trust

Команда Google в конце февраля нынешнего года опубликовала документ, в котором описала новый подход к оценке качества внешних источников. Как известно, ранее реализация таких действий осуществлялась за счет использования гиперссылок, которые считаются внешними сигналами. Благодаря новому подходу появляется возможность использования внутренних сигналов, которые будут указывать на корректность изложенной информации, если она получена из иных источников. Чем более правдивая информация изложена в документе, тем, соответственно, он надежней.

Существует мнение, согласно которому вышеуказанный подход позволит сократить влияние рассылочного фактора. Давайте подробнее остановимся на данном вопросе.

В начале немного истории

Как известно, 8 августа 2012 года Google впервые попытался использовать алгоритм семантического поиска под названием Knowledge Graph (в русском варианте — «Граф знаний»).

Благодаря Knowledge Graph, который, по сути, является огромной базой знаний, появилась возможность упростить процедуру поиска той или иной информации. С этого момента начинается отчет продвижения Google в сторону семантики. Иными словами, алгоритмы Google стали понимать смысл запроса, что впоследствии позволило использовать голосовой поиск, который сегодня набирает все большую популярность.

В 2014 году Google, стремясь создать что-то более совершенное, разрабатывает новую базу, под названием Knowledge Vault (в русскоязычном варианте звучит как «Хранилища знаний»). Отличительной особенностью двух видов поиска являлось то, что основная цель Knowledge Graph — это получать проверенную информацию (например, из Википедии), тогда как Knowledge Vault собирают всю информацию, расположенную в сети интернет. Естественно, что вышеуказанные различия позволили Knowledge Vault опередить, а потом полностью затмить Knowledge Graph.

На данном этапе скорее всего закрадывается вполне закономерный вопрос: а при чем тут алгоритм?

Дело в том, что использование программы Knowledge Vault, несмотря на ее положительные характеристики, стало причиной сокращения объема достоверной информации. Предположим следующую ситуацию:

Какой-либо интернет-ресурс представляет на всеобщее обозрение информацию, которая впоследствии подхватывается другими сайтами. В этой ситуации первоисточник данной информации занимает почетное первое место в выдаче. Естественно, это ставит под удар репутацию Google как надежной поисковой системы.

Именно по этой причине последнюю свою разработку Гугл назвал Knowledge-Based Trust или, другими словами, «знания, основанные на доверии». Можно сказать, данный вариант поиска перенял все положительные характеристики у ранее представленных программ. Он такой же огромный, как Google Knowledge Vault и такой же надежный, как Knowledge Graph.

Дополнительным плюсом данной программы является то, что она автоматически понижает в выдаче сайты, информация на которых является недостоверной.

Сравнение KBT и PageRank

Помимо вышеизложенного материала, в документе, предложенном Гугл, также представлены достаточно интересные эксперименты с KBT.

В качестве примера можно привести эксперимент-сравнение «КВТ против PageRank».

Google представляет новый алгоритм — Knowledge-Based TrustХотелось обратить внимание на следующий рисунок:

На данном рисунке видны показатели КВТ и PageRank для 2000 случайно отобранных страниц. Для того, что упростить процедуру сравнения, оба показателя приведены к шкале от 0 до 1. Как видно из данного примера, КВТ и PageRank не являются взаимозависимыми.

При этом разработчики провели два исследования, на основании которых удалось выяснить причину отличия КВТ от PageRank, и также указать, какой из вариантов является более надежным.

Первое исследование показало следующие результаты:

Исследование № 1

В первом варианте показатели PageRank, ниже в сравнении с КВТ (нижний правый угол): для того, чтобы прояснить для себя причину полученных результатов, инженерам Google понадобилось взять за образец примерно 100 сайтов со значением КВТ около 0,9. После чего из каждого сайта было отобрано 3 наиболее подходящих утверждения и 10 произвольных триплетов.

Отдельное внимание необходимо обратить на понятие триплеты, или, как еще называют, «тройки базы знаний».

Объяснить хотелось бы на примере:

Как известно, при описании какого-либо события указывается объект, субъект и характеристики данного объекта. Так соседка Антонина Ивановна — это субъект, ее гражданство является характеристикой объекта, а сам объект — это Российская Федерация. Соответственно, фактом в данной ситуации будет то, что Антонина Ивановна является гражданкой РФ. Получение информации при помощи триплетов осуществляется поиском Knowledge Vault.

Далее в отдельности была произведена оценка каждого сайта. Результаты показали надежность 85 сайтов из 100. Что касается PageRank, то данные показатели выше 0,5 только у 20 сайтов. Благодаря вышеуказанному эксперименту удалось выяснить, что КВТ в состоянии оценить качество изложенной информации даже при низком PR источников.

Исследование № 2

Во втором исследовании был выявлен высокий PageRank, но низкий КВТ (верхний левый угол): в этом случае инженеры Google проанализировали 15 наиболее известных сайтов, которые занимались публикацией недостоверной информации о жизни звезд. Только один из этих сайтов имеет низкий PageRank, при этом у всех сайтов показатель КВТ не превышает 50%, что доказывает их ненадежность в сравнении с более чем половиной сайтов сети. Помимо этого, нельзя не сказать о форумах, которые также имеют низкий КВТ. В качестве примера можно представить answers.yahoo.com, где изложена не совсем правдивая биография одной достаточно известной актрисы.

С учетом проведенных экспериментов удалось выяснить, что KBT является более надежным в сравнении с остальными существующими алгоритмами типа PageRank. Дополнительным преимуществом можно обозначить возможность выявления недостоверной информации и также копии такой информации с других сайтов.

Хотелось отметить, что алгоритм КВТ пока не запущен и неизвестно, когда планируется начать его использование. Также под вопросом остается отмена ссылочного ранжирования.

Данную информацию пытались уточнить у Джона Мюллера — специалиста компании Google. Он ответил, что довольно сложно сегодня (10.03.2015 — прим. автора) сказать о том, какое из проводимых исследований специалистами Google будет впоследствии использовано на практике.

Тем не менее, нельзя отрицать положительных характеристик алгоритма КВТ.

Разработчики программы утверждают, что данный метод позволяет наилучшим образом выяснять насколько достоверна та или иная информация. Важную роль здесь играют положительные отзывы людей, которые принимали участие в исследовании.

Сигналы KBT не только самые полезные, но также не зависят от показателей иных алгоритмов типа PageRank.

Несомненно, речь идет о прорыве в сфере СЕО-индустрии. И самое главное здесь, конечно, возможность производить сортировку сайтов. Единственное, что необходимо учитывать, что КВТ может влиять только на те ресурсы, где расположен фактический материал.

Благодаря KBT подняться на вершину поисковой системы в скором времени смогут именно полезные и честные сайты, что несомненно скажется на качестве получаемой информации.

 

Все новости рекламной отрасли Все новости нашей Студии

См. также

Все услуги

Создание сайтов

Поддержка сайтов

Продвижение сайтов

Разработка логотипов

Полиграфия

3D-моделирование

IT-услуги

Битрикс24
Подробнее...

Набор из пяти важных и полезных инструментов, которые помогают бизнесу работать: удобная и понятная система управления компанией и бизнес-процессами.

1С-Битрикс: Управление сайтом
Подробнее...

Профессиональная система для создания, поддержки и успешного развития веб-проектов.