Переубедить конспирологов: чат-боты с ИИ могут справляться с этим эффективнее людей

Переубедить конспирологов: чат-боты с ИИ могут справляться с этим эффективнее людей

Конспирология или вера в теории заговора процветает во всем мире, особенно в США, где, по оценкам, около 50% населения верит хотя бы в одно нелепое утверждение. И эти убеждения известны своей непробиваемостью.

Попробуйте поспорить с заядлым конспирологом, используя факты и доказательства, и он скорее всего еще сильнее укрепится в своей вере. Психологи обычно объясняют это «мотивированным мышлением» — предвзятым способом обработки информации.

Однако новая статья, опубликованная в журнале Science, бросает вызов этому традиционному подходу. Эксперименты, в которых чат-бот на основе искусственного интеллекта вступал в диалог с людьми, верящими хотя бы в одну теорию заговора, показали, что такое взаимодействие значительно снижало силу этих убеждений даже спустя два месяца. Секрет успеха заключался в том, что чат-бот, имеющий доступ к огромному количеству информации по широкому спектру тем, мог точно подбирать контраргументы для каждого отдельного человека.

«Это одни из самых удивительных результатов, которые я когда-либо видел", — сказал соавтор исследования Гордон Пенникук, психолог из Корнельского университета, во время пресс-конференции. «Работа переворачивает с ног на голову все наши представления о теориях заговора и сам факт того, что они являются результатом различных психологических мотивов и потребностей. Участники были заметно восприимчивы к доказательствам. Исписаны сотни страниц о том, что мы живем в мире постправды, поэтому уверенность в силе доказательств действительно успокаивает. Мы можем действовать более адаптивно, используя эту новую технологию, чтобы предоставить людям качественные аргументы, специально относящиеся к тому, во что они верят. Это гораздо более эффективный подход».

Когда люди сталкиваются с фактами, которые опровергают глубоко укоренившееся убеждение, они часто пытаются сохранить его, вместо того чтобы в свете новых доказательств обновить свои априорные вероятности (говоря языком Байеса). Поэтому в последнее время воцарился пессимизм по поводу идеи, что когда-либо удастся достучаться до тех, кто так глубоко погрузился в кроличью нору теорий заговора; ведь они известны своей устойчивостью и «представляют серьезную угрозу для демократических обществ», по словам авторов. Пенникук и его коллеги предложили альтернативное объяснение этому упрямству в убеждениях.

Так называемые контраргументы

«Дело в том, что теории заговора сильно отличаются в зависимости от человека, который в них верит», — говорит соавтор исследования Томас Костелло, психолог из Американского университета, одним из подраздлений MIT. «Они довольно неоднородны. Люди верят в широкий спектр теорий, и конкретные доказательства, которые люди используют для подтверждения даже одной конспирологической теории, могут быть разными у разных людей. Поэтому попытки опровержения, в которых вы используете общеизвестные аргументы против конспирологической теории, не будут эффективны, так как у людей в голове разные версии этой теории». Напротив, ИИ сумел адаптировать свои попытки опровержения к различным версиям теории заговора. Поэтому, гипотетически, чат-бот может оказаться более эффективным в том, чтобы переубедить кого-то в его любимых конспирологических верованиях.

Чтобы проверить свою гипотезу, команда провела серию экспериментов с участием 2 190 человек, которые верили в одну или несколько теорий заговора. Участники вступили в несколько индивидуальных бесед с большой языковой моделью GT-4 Turbo, в которых они делились своей любимой теорией заговора и доказательствами, которые, по их мнению, ее подтверждали. Чат-бот отвечал, предлагая фактические и доказательные контраргументы, подобранные индивидуально для каждого отдельного участника. Ответы GT-4 Turbo проходили проверку на факт-чекинг силами отдельных экспертов. Проверка показало, что 99,2% утверждений, которые приводил бот, были правдивыми, только 0,8% были оценены как вводящие в заблуждение и ни одно как ложное. (Вы можете попробовать пообщаться с чат-ботом, опровергающим теории заговора, по этой ссылке).

Сначала участники отвечали на ряд открытых вопросов о теориях заговора, в которые они твердо верили, и о доказательствах, на которые они опирались, чтобы поддержать эти убеждения. Затем ИИ предлагал резюме каждого убеждения, оформленного коротким предложением, например: «Трагедия 11 сентября 2021 года была запланирована американским правительством, потому что 1), 2) и 3)». Участники оценивали точность этого утверждения с точки зрения своих собственных убеждений, а затем заполняли анкету о других теориях заговора, своем отношении к экспертам, ИИ, другим людям в обществе и так далее.

Затем наступила очередь личных диалогов с чат-ботом, которого команда запрограммировала быть наиболее убедительным. Чат-боту также были предоставлены открытые ответы участников, что позволило ему лучше подбирать свои контраргументы индивидуально. Например, если кто-то считал, что 11 сентября было запланировано правительством, и приводил в качестве доказательства тот факт, что авиационное топливо не горит при температуре достаточной для плавления стали, чат-бот мог дать ссылку, скажем, на отчет NIST, показывающий, что сталь теряет прочность при намного более низких температурах, достаточных для ослабления конструкции башен и их обрушения. Другой фанат теории заговора 9/11, приводящий в качестве доказательства взрывы, получил бы ответ, исходя из этого убеждения.

На следующем этапе участники отвечали на тот же набор вопросов после диалогов с чат-ботом, которые в среднем длились около восьми минут. Костелло и его коллеги обнаружили, что эти беседы привели к тому, что уверенность участников эксперимента снижалась на 20%, и этот результат сохранялся даже спустя два месяца, когда снова проводилась оценка.

Как отметили Бенсе Баго (Тилбургский университет) и Жан-Франсуа Боннефон (CNRS, Тулуза, Франция) в сопроводительной статье, это отличный результат по сравнению с другими взаимодействиями, которые снижали веру в убеждения лишь на 1-6%. Ученые также принимали во внимание стойкость эффекта, хотя и предупреждали, что два месяца — это «недостаточно, чтобы полностью устранить неверные конспирологические убеждения».

Ничего кроме фактов

Этот подход с использованием чат-бота оказался эффективным для широкого спектра теорий заговора, от классических, таких как убийство Кеннеди, «лунного заговора» и тайного общества Иллюминатов, до более современных примеров, таких как утверждения о фальсификации выборов в США в 2020 году и искусственном происхождении COVID-19. «Мы также заметили небольшой побочный эффект, показывающий, что в целом после диалогов с чат-ботами люди становились менее склонными к конспирологическим теориям», – заметил соавтор исследования Дэвид Рэнд, когнитивный ученый из MIT. «У них чаще появлялось желание игнорировать или блокировать аккаунты в социальных сетях, посвященные теориям заговора. Поэтому как оказалось, это работает и работает эффективно. Чат-бот может найти индивидуальный подход в опровержении теории, а не просто повторять общеизвестные факты и доказательства».

«Если вы посмотрите на записанные диалоги, ИИ преимущественно предоставлял научные объяснения этим «конспирологическими» событиям, поощряя людей к критическому мышлению и предоставляя контрдоказательства», — говорит Рэнд. Чат-бот также был вежлив и пытался наладить отношения с участниками. Команда провела дополнительные исследования, которые еще не опубликованы, изменяя запрос так, чтобы исключить установление отношений и просто представлять фактические доказательные контраргументы; результаты были такими же впечатляющими. Еще одно изменение в запросе заставило чат-бота совсем не опираться на факты и доказательства и попытаться отговорить участников от конспирологических убеждений, основываясь только на уважительном отношении. Такой подход оказался неэффективным. «Это говорит о том, что работают именно факты и доказательства», — утверждает Рэнд.

Но будут ли люди, верящие в теории заговора, добровольно вступать в диалог с чат-ботом на основе искусственного интеллекта, запрограммированным на то, чтобы изменить их убеждения? Рэнд отметил, что многие любители конспирологии на самом деле хотят говорить о своих верованиях. «Проблема в том, что другие люди не хотят с ними об этом разговаривать», – сказал он. Поэтому авторы предлагают опубликовать ссылку на чат-бот на конспирологических форумах, приглашая людей провести собственное исследование, вступив с ним в диалог. Возможно, по поисковым запросам в интернете, связанным с теориями заговора, можно выдавать краткие обзоры достоверной информации, сгенерированные искусственным интеллектом, либо ИИ-боты в социальных сетях могут отвечать пользователям, делящимся ложной информацией о теориях заговора.

Чат-бот показал себя менее эффективным в исследовании взаимодействия, которое команда запустила после покушения на убийство бывшего президента Дональда Трампа этим летом, после которого появилось много конспирологических теорий. Чат-боту была предоставлена вся необходимая информация и контекст, чтобы опровергнуть эти теории. Команда также дала ему возможность искать в поисковиках новостные статьи и связанные с ними онлайн-материалы о попытке убийства.

«Мы обнаружили, что он был не так эффективен, как в случае теорий заговора, на которых обучались модели, но у него был довольно заметный эффект», — говорит Костелло. «Он снизил убежденность людей в конспирологических теориях, связанных с покушением, на шесть-семь пунктов по шкале от нуля до ста». Авторы предполагают, что это связано с тем, что о недавних событиях доступно меньше проверенных фактов, поэтому у чат-бота меньше материала для работы.

«Распространители дезинформации иногда используют технику, называемую галоп Гиша — по имени ее создателя, который мастерски использовал такой прием, — когда разговор заполняется огромным количеством неправды», — написал в сопроводительной статье о результатах исследования главный редактор журнала Science Х. Холден Торп. «Люди не в состоянии эффективно отвечать на это, независимо от того, насколько точными могут быть их ответы. Но искусственный интеллект не перегружается, он может бесконечно цитировать противоположные доказательства. Хотя, возможно, разочаровывает, что машина может быть лучше в опровержении дезинформации, чем человек, сам факт, что в конечном счете научные доказательства имеют силу убеждения, является утешительным».

1010
1 комментарий

Отличная статья!

1
Ответить