Как Интернет погружает нас в информационные пузыри – чем это опасно

Россия+7 (910) 990-43-11
Обновлено: 2021-10-01

Большинство людей уже знают, что искусственный интеллект помогает нам искать в Интернете фильмы по субботам вечером или находить идеальный отель для отпуска. В этом нет ничего плохого, если мы знаем, как работает этот механизм, и сохраняем здравый смысл, не полагаясь полностью на предложения, которые Интернет подкладывает нам под нос.

Если наша цифровая деятельность определяется исключительно рекомендациями искусственного интеллекта, мы рискуем создать виртуальный мир с поляризованными мнениями.

В Google персонализированный поиск изначально применялся только к пользователям, чьи профили были связаны с учетной записью Gmail. С 4 декабря 2009 года эта опция была распространена на всех пользователей в мире. Для реализации этого обновления компания из Mountain View пришлось скорректировать свой алгоритм.

Концепция фильтрующих пузырей была впервые предложена Эли Паризером, основателем Upworthy. Он был одним из первых, кто указал на опасность персонализации информации на основе алгоритмов, имеющихся в социальных сетях и поисковых системах. Концепция фильтрующегого пузыря была представлена на выступлении Паризера на конференции TED в 2011 году, где была названа эффектом веб-персонализации, фильтрации и блокирования потока информации.

В своих книгах Паризер объяснил, как результаты поиска Google меняются в зависимости от истории пользователя. Он привел пример, когда два человека искали «BP» (British Petroleum). Для одного из этих людей результаты поиска показали информацию об инвестиционных предложениях, а для другого – информацию о недавнем разливе нефти. В другом эксперименте была введена фраза «Египет», и здесь результаты поиска тоже отличались друг от друга: в одном случае они касались туристического агентства, а в другом – насилия со стороны египетских властей на площади Тахрир во время, так называемой, Арабской весны.

Эти эксперименты послужили основой для формулирования вывода о совершенно разных образах реальности, которые формирует алгоритм, фильтрующий поисковый контент в Google.

Паризер назвал это проявления фильтрующим пузырём или «экосистемой личной информации», которая изолирует нас от всех видов когнитивных диссонансов, ограничивая то, что мы видим. В то же время контролируется практически всё, что мы делаем в Интернете – в интересах кого-то другого. Таким образом, мы можем сказать, что информация, с которой мы сталкиваемся в Интернете, отражает наши текущие интересы, в то время как алгоритмические наблюдатели постоянно следят за тем, что нам интересно.

Погружение в информационный пузырь

Пузырь фильтрации в социальных сетях

Первоначально сайты социальных сетей давали пользователям полную свободу выбора контактов, источников новостей, за которыми они следят, и тем, которые были им интересны. Тем не менее, Паризер также провел тест алгоритма фильтрации контента Facebook, и этот тест показал, что социальные сети, так же как и Google, запирают нас в информационном пузыре.

Паризер отметил, что, используя Facebook и нажимая на ссылки, которыми поделились некоторые из его друзей с либеральным мировоззрением, он перестал видеть контент, размещённый друзьями с консервативным мировоззрением.

Интересным опытом поделился Мэтт Хонан из журнала Wired, решивший «ставить лайки» буквально каждой публикации, отображаемой на его стене в Facebook. Первым следствием его действий стало почти полное исчезновение контента, которым поделились другие пользователи. Вместо этого его стена была заполнена рекламой различных компаний. Более того, её начали показывать и его друзьям. Второй эффект был более очевиден после того, как он лайкнул произраильскую статья о конфликте в Секторе Газа. Тогда большая часть отображаемой информации стала носить правый характер.

Этот пример является хорошей иллюстрацией опасения Эли Паризера, что скрытые алгоритмы, бездумно цензурируя определенный контент, ограничивают доступ к определенной информации и сужают наше мировоззрение. Такая избирательность может привести к своего рода эндогамии и повлиять на наше поведение, наши предпочтения и даже действия друзей и знакомых.

Информационный пузырь – в чём главный риск

Подводя итог вышесказанному, концепция фильтрующего пузыря относится к обстоятельствам, когда наша онлайн-активность ограничена пространством, где всё, с чем мы сталкиваемся, только подтверждает наши взгляды. Те же механизмы, которые призваны избавить наше внимание от избытка контента за пределами круга интересов, по сути, закрывают нас в плотном информационном «пузыре». Таким образом, на практике фильтрующий пузырь означает, что нас окружают только те люди, которые нам нравятся и с которыми мы согласны.

Форма этого пузыря зависит от того, что мы делаем, но мы теряем возможность выбирать, что, в конечном итоге, проникнет в него, а что останется за его пределами. Таким образом, мы даже не можем судить, действительно ли то, что исключил фильтрующий пузырь, недостойно нашего внимания.

Следовательно, жизнь в таких пузырях имеет огромный недостаток в виде поляризации мнений. Такой механизм приводит к созданию виртуальной среды, в которой все участники имеют схожие взгляды на определенные темы, а другие мнения автоматически отклоняются как необоснованные.

Сложность получения информации, с которой мы не согласны, и даже той, которая кажется нам абсурдной, мешает нам расширять наши знания и строить собственное мировоззрение.

В более широком смысле это может привести к ослаблению общественного дискурса и сделать нас более уязвимыми для пропаганды и манипуляций. Убежденные, что все вокруг нас разделяют схожие ценности, мы подкрепляем себя собственными убеждениями и менее склонны к предметным и конструктивным обсуждениям, которые чрезвычайно важны, например, в контексте здоровой демократии и построения открытого общества.

Такой механизм фильтрации вызывает вопросы об этичности такого типа действий. Алгоритмы, то есть действия искусственного интеллекта, руководствуются объективными критериями важности, не вдаваясь в детали содержания и не подвергая их сомнению. Они просто действуют в соответствии с принятыми правилами, без способности субъективно отличать действительно важное от того, что является незначительным или вредным с точки зрения широко понимаемого блага. Несмотря на все человеческие несовершенства, люди могут смотреть на различное содержание с большим пониманием, более широкой перспективой и даже сочувствием, чего напрасно искать в машинах.

До недавнего времени традиционные СМИ определяли, какая информация должна доходить до населения и в какой форме. Эта роль неразрывно связана с журналисткой этикой, в основе которой лежат объективность и надёжность, а также предоставление разной, иногда неудобной, но необходимой информации.

В то время, когда роль информационного средства взяли на себя Интернет и социальные сети, такими «привратниками» стали несовершенные и бесчувственные алгоритмы.

Как разбить информационный пузырь

Существование таких информационных пузырей не может вселять оптимизм. Повышение осведомленности общественности о том, как работают алгоритмы таких сервисов, как Google и Facebook, имеет важное значение.

Отсутствие этой осведомленности опасно, например, для пожилых людей. Даже если они случайно попали на статью или фильм, они не осознают, что последующие публикации на подобную тему появляются не из-за того, что внезапно все начали делиться определенными взглядами, а именно потому, что эти публикации были выбраны алгоритмами. В конце концов, они теряют контроль над тем, что фильтруется, а что нет, поскольку сообщения корректируются, чтобы подкрепить предыдущие мнения. Наконец, они начинают ограничиваться конкретными новостными каналами, программами или газетами, с которыми они согласны.

Одно из основных действий, которое может спасти нас от ловушки информационного пузыря, – это понять, что существует больше взглядов, чем те, которые приходят нам. Стоит изучить тему шире и быть открытым для предметного обсуждения, даже когда это сложно. По словам Паризера, крайне важно создавать и продвигать инструменты для поощрения дебатов и обмена мнениями, как это было на интернет-форумах, процветавших в конце 1990-х – начале 2000-х годов.

В дополнение к таким общим действиям, основанным на сознательном отборе информации, вы можете предпринять несколько чисто технических шагов, которые затруднят алгоритмам погружение вас в информационный пузырь:

  • Включите блокировку рекламы в вашем браузере. Обратной стороной является то, что некоторые сайты настаивают на том, чтобы пользователи отключили блокировку рекламы перед отображением страницы.
  • Читайте публикации новостных сайтов и блогов, цель которых – раскрыть широкую перспективу.
  • Используйте просмотр в режиме инкогнито, удалите историю поиска и входите в свою учетную запись только при необходимости.
  • Удалите или заблокируйте файлы cookie в браузере. Файлы cookie можно удалить вручную, также для их удаления доступны расширения браузера. В некоторых случаях файлы cookie полезны, поэтому их следует удалять выборочно.
  • В Facebook измените параметр фильтрации отображаемых на стене событий с самых интересных на самые свежие.
  • Для ваших любимых и наиболее ценных учетных записей выберите «Получать уведомления».

5.0/2