Интернет для многих – школьников, студентов, сотрудников и даже журналистов, – является сегодня одним из основных, если не главным, источником информации.
Быстрый поток сообщений, множественность источников, легкость доступа к данным – всё это приводит к тому, что мы в любой ситуации обращаемся к интернету: когда хотим о чём-то узнать, что-то проверить или прочитать. А то, что мы находим в поиске, особенно на первых страницах, очень часто воспринимаем как само собой разумеющееся.
Найти сегодня информацию просто, сложнее её правильно проанализировать, понять, оценить достоверность и полезность. Именно эти навыки должны развивать в себе интернет-пользователи, если хотят в полной мере использовать возможности, которые дает им сеть.
А что, если им не придется этого делать? Что, если система сама определит достоверность приводимых в сети данных? Именно над этот вопрос обратили внимание исследователи Google, которые в своих рассуждениях признали, что они в состоянии создать алгоритм, который отличит интернет-ложь от истины. Упомянутый анализ произведен в статье Доверие, основанное на знаниях: оценка надежности веб-источников.
В упрощенном виде, механизм, на который ссылаются исследователи, опирается на две базы информации, которые собирает Google, чтобы проверяли подлинность хранящихся внутри них данных.
О каких базах идёт речь? Одна – это Knowledge Graph, которая содержит данные, введенные людьми. А вторая – это Knowledge Vault, которая автоматизированными способами собирает доступные в сети данные. Они загружаются в виде так называемого knowledge triples. Эта система определяет три взаимосвязанных определения. Первый – это предмет или понятие, и второе – его особенность, а третье – подробное описание этой особенности. Соответствие фактов, имеющихся в другой базе, определяет истинность информации в интернете.
Однако, даже на стадии теоретических рассуждений, ученые видят для этого механизма много трудностей и проблем. Поскольку данные будут подаваться автоматически, через поисковые роботы Google, следует считаться с возможностью возникновения ошибок в сборе информации. Трудности может также вызвать искажение данных в ранее подтвержденных источниках.
Это только начало проекта. Может оказаться, что с развитием системы большинство из рассматриваемых проблем исчезнет. Тогда можно будет сказать с уверенностью, что информация, содержащаяся в сети интернет, – это не домыслы, слухи или ложь, а полностью подтвержденные и реальные данные.
Остаются, однако, такие проблемы, которые не решит даже самый продвинутый алгоритм. Такие, как утрата навыков анализа и оценки информации, бездумное принятие фактов, доступных в сети. Вы уверены, что хотели бы видеть своё будущее таким?