Способны ли социальные сети искажать наше представление о реальности? Почему мы склонны доверять своим друзьям даже в тех случаях, когда они делятся с нами ссылками на непроверенные сообщения, а то и на прямую дезинформацию? И как эта доверчивость влияет на наши поступки в реальном мире — например, на наше решение проголосовать за того или иного кандидата в президенты? Читайте об этом в статье профессора компьютерных наук и информатики Филиппо Менцера, которую опубликовало издание The Conversation.
Если вы, подобно большинству американцев, узнаете новости из социальных сетей, то это значит, что параллельно вы получаете ежедневную порцию лжи, непроверенных слухов, страшилок в духе теории заговора, и неверно сформулированных сообщений. Когда все это перемешано с достоверной информацией из надежных источников, докопаться до правды бывает очень нелегко.
Как показал анализ данных, собранных Колумбийским университетом в рамках программы Emergent, которая занимается изучением слухов, дезинформация становится объектом вирусного распространения почти так же часто, как и надежные сведения (анализом данных занималась команда исследователей под моим руководством).
Многие спрашивают, не повлиял ли этот натиск электронной дезинформации на результаты американских выборов 2016 года. По правде говоря, мы этого не знаем, но есть все основания полагать, что такое влияние могло иметь место, учитывая опыт предыдущих исследований и сведения, поступающие из других стран. Любое неверное сообщение воздействует на формирование нашей точки зрения. Итоговый вред от дезинформации может быть вполне реальным — если введенные в заблуждение люди готовы рисковать жизнью собственных детей, как в случае с отказом от обязательных прививок, то что им помешает поставить на кон нашу демократию?
Будучи специалистом по вопросам распространения дезинформации через социальные сети, я согласен с тем, что Google и Facebook сделали шаг в верном направлении, попытавшись ограничить возможности новостных фальсификаторов наживаться на рекламе. Но этот шаг не остановит политически мотивированных нарушителей.
Как распространялись предвыборные новости по хэштегам #ImWithHer (за Хиллари Клинтон) и #MakeAmericaGreatAgain (за Дональда Трампа): точками обозначены твиттер-аккаунты, линии между ними изображают ретвиты. Диаметр точек зависит от количества ретвитов, произведенных аккаунтом. Красным цветом помечены аккаунты, которые с высокой степенью вероятности являются ботами, голубым — аккаунты реальных пользователей
Эксплуатация социальных сетей
Лет десять тому назад, я со своими коллегами проводил эксперимент, в ходе которого мы обнаружили, что 72 процента студентов колледжей доверяли линкам, якобы полученным от друзей, — вплоть до того, что они делились личными логинами на фишинговых сайтах. Столь распространенная доверчивость подсказала и другую форму злонамеренной манипуляции: пользователи поверят дезинформации, кликнув по ссылке, пришедшей от кого-то из сетевых контактов.
Чтобы проверить эту идею, я создал фальшивую веб страницу со случайными, сгенерированными компьютером новостями в стиле желтой прессы, что-то вроде: «Знаменитость Х в постели со знаменитостью Y!» Вводя в поисковик имя знаменитости, посетители сайта запускали скрипт, который автоматически фабриковал заметку об этом человеке. Я разместил на сайте предупреждение о том, что здесь вывешиваются бессмысленные тексты и липовые «факты». Я также разместил на странице рекламные объявления. В конце месяца мне пришел чек — деньги, заработанные на показах рекламы. Они-то и послужили доказательством: фейковые новости могут приносить деньги, попутно загрязняя интернет ложью.
К сожалению, я был не единственным, кому пришла в голову такая идея. Через десять лет возникла целая индустрия по производству фальшивых новостей и распространению дезинформации в интернете. Сайты с развлекательным «мусорным» контентом производят фальшивки, чтобы зарабатывать на рекламе, в то время как сайты сверхлояльных политических активистов публикуют и распространяют слухи и дезинформацию в духе теории заговора с целью повлиять на общественное мнение.
Эта индустрия набирает силу благодаря тому, что сегодня очень легко создать бота или фальшивый аккаунт в соцсетях, который управляется программой, но притворяется живым человеком и благодаря этому способен быть влиятельным. В ходе исследования мы обнаружили множество фальшивых инициативных кампаний, которые принято обозначать термином «астротурфинг» (англ. astroturfing — имитация общественного мнения с помощью соцсетей).
В ответ мы разработали систему BotOrNot, которая распознает боты в социальных сетях. Она не идеальна, но ее результаты достаточно аккуратны для того, чтобы распознать кампании, направленные на агитацию в пользу Brexit или против прививок. Используя BotOrNot, наши коллеги обнаружили, что большая часть онлайн-обсуждений, посвященных недавним выборам американского президента, была инициирована ботами.
Создание информационных пузырей
Людьми довольно легко манипулировать с помощью дезинформации в соцсетях, поскольку этому способствует сложное сочетание социальных, когнитивных, экономических и поведенческих установок, разделяемых всеми нами. Некоторые из них сыграли положительную роль в ходе эволюции: доверие к сигналам, исходящим от ближайшего окружения, и скептицизм по отношению к сведениям, противоречащим собственному опыту, помогли нашим предкам научиться избегать зубов хищников. Но в сегодняшнем замкнутом мире сетевого общения сигналы, поступающие ко мне из соцсети от сторонника теории заговора, проживающего на другом конце мира, мешают мне принимать взвешенные решения.
«Расшаривая» сообщения друзей и «отписываясь» о тех, чьи мнения отличаются от наших, мы оказываемся в настолько полярно ориентированной «эхокамере», что по одному списку ваших друзей исследователи с высокой точностью скажут, кто вы — либерал или консерватор. Структура социальной сети настолько плотная, что дезинформация внутри отдельной группы распространяется практически молниеносно, и в то же время настолько раздробленная, что другие группы о ней ничего не знают.
Внутри нашего «пузыря» мы получаем только специально отобранную информацию, совпадающую с нашими убеждениями. Такой сценарий идеален для повышения уровня общительности, но губителен для развития здорового скептицизма. Чрезмерная уверенность в своей правоте приводит к тому, что мы «расшариваем» заголовок, не читая самой статьи.
Наша лаборатория извлекла похожий урок на собственном опыте, когда в преддверии промежуточных выборов в Америке в 2014 году стала объектом злостной дезинформации. Изучая активность соцсетей, мы наткнулись на фальшивые сообщения о наших исследованиях, которые распространялись, преимущественно через твиттер, внутри односторонне ориентированной «эхокамеры» — большого, однородного и политически активного сообщества. Эти люди молниеносно ретвитили фальшивые сообщения, но были крайне скупы на опровержения.
Вирусное распространение
Наше исследование показывает, что при существующей структуре социальных сетей и ограниченном внимании пользователей некоторые мемы, независимо от их качества, неизбежно становятся вирусными. Пусть даже отдельные пользователи стараются делиться проверенной информацией, соцсеть в целом не способна отличить правду от фальшивки. Этим и объясняются все вирусные «фейки», гуляющие по интернету.
Об остальном позаботится «экономика внимания»: если какая-то тема выходит в топ, связанная с ней информация начинает производиться ускоренными темпами. При этом сфабриковать новость, выдав ее за факт, гораздо дешевле, чем добывать правдивую информацию. Причем фабриковать можно на любой вкус: консерваторы прочли, что папа Римский поддержал Трампа, либералы прочли, что он поддержал Клинтон. А на самом деле он не поддерживал никого.
Все дело в алгоритмах
Раз мы все равно не можем просмотреть все сообщения из информационной ленты, отбор того, что мы увидим, берут на себя алгоритмы. Алгоритмы, используемые в сегодняшних соцсетях, настроены присваивать высокий приоритет «цепляющим» постам — на которые мы с большей вероятностью кликнем, отреагируем, которыми, возможно, поделимся. Но недавние исследования показали, что страницы с намеренной дезинформацией получают такой же отклик и распространяются так же широко, как и настоящие новости.
Предвзятость алгоритмов, предпочитающих показывать «цепляющие» новости взамен правдивых, усиливает присущую нам предвзятость социального и когнитивного характера. В результате, переходя по ссылкам в социальных сетях, мы сами себе сужаем круг посещаемых ресурсов, делаем его более однородным, чем было бы в случае самостоятельного поиска информации в сети и переходе по самым популярным ссылкам.
Существующие исследования показывают, что «эхокамера» способна сделать попавших в нее людей более доверчивыми по отношению к непроверенным слухам. Но мы еще мало знаем о том, почему люди по-разному реагируют на конкретный «фейк»: одни делятся им немедленно, а другие сперва стараются его проверить.
Чтобы изучить это состязание между теми, кто бездумно «шерит», и теми, кто проверяет информацию, мы смоделировали искусственную социальную сеть. Тем самым мы надеемся разобраться в противоречивых данных о том, что в каких-то ситуациях проверка данных помогает остановить распространение фальшивого сообщения, а в каких-то — нет. Полученные нами предварительные результаты позволяют предположить, что чем более замкнуто сообщество тех, кто верит фальшивке, тем дольше она живет. И это относится не только к самой фальшивке, но и к социальной сети в целом.
Многие пытаются понять, что с этим делать дальше. Судя по недавнему заявлению Марка Цукерберга, Facebook уже испытывает возможные решения. А группа студентов предлагает просто помечать линки при «расшаривании» как «достоверные» или «недостоверные».
Какими-то возможными механизмами решения этой задачи мы пока не обладаем.К примеру, мы пока не можем научить искусственный интеллект отделять правду от лжи. Но мы можем создать алгоритм, который будет присваивать более высокий рейтинг ресурсам с лучшим показателем надежности.
Как распространяются фальшивки
Чтобы эффективнее бороться с новостными «утками», необходимо понять пути их распространения. Например, если выяснится, что за большую часть «фейков» ответственны боты, мы сконцентрируемся на их поиске. Если, напротив, все дело в «эхокамерах», то, возможно, нам следует разработать такие алгоритмы рекомендации новостей, которые не будут исключать разные точки зрения.
Поэтому наша лаборатория разрабатывает платформу Hoaxy, способную проследить и визуализировать пути распространения непроверенных и соответствующих им надежных сообщений в соцсетях. Эти данные, полученные из реального мира, мы загрузим в нашу искусственную соцсеть и тогда сможем опробовать разные способы борьбы с фальшивыми новостями.
Hoaxy также способна наглядно показать пользователям, как легко с помощью информации из сети манипулировать их мнением — и даже насколько легко многие из нас готовы делиться фальшивыми новостями. Hoaxy станет частью пакета программ нашей Обсерватории социальных медиа, которая позволяет любому человеку проследить за распространением мемов через твиттер. Объединяя воедино такие программы, пользователей, привыкших проверять информацию, и соцсети, можно свести к минимуму дублирование усилий и повысить взаимопомощь между ними.
Очень важно объединить усилия для изучения этих вопросов. Нам нужны все: IT-специалисты, социологи, экономисты, журналисты, — и все партнеры IT-индустрии должны сотрудничать, чтобы поставить заслон распространению дезинформации.
Перевод с англ. Татьяны Тепер
https://nplus1.ru/material/2016/12/19/social-media-misinformation