{"id":14291,"url":"\/distributions\/14291\/click?bit=1&hash=257d5375fbb462be671b713a7a4184bd5d4f9c6ce46e0d204104db0e88eadadd","title":"\u0420\u0435\u043a\u043b\u0430\u043c\u0430 \u043d\u0430 Ozon \u0434\u043b\u044f \u0442\u0435\u0445, \u043a\u0442\u043e \u043d\u0438\u0447\u0435\u0433\u043e \u0442\u0430\u043c \u043d\u0435 \u043f\u0440\u043e\u0434\u0430\u0451\u0442","buttonText":"","imageUuid":""}

58% людей не могут определить, что общаются в соцсетях с ботами ИИ

Исследователи из Университета Нотр-Дам (США) провели исследование с использованием ИИ-ботов на основе больших языковых моделей, разработанных для создания текстов. Они попросили людей и ИИ-ботов вступить в политическую дискуссию в децентрализованной социальной сети Mastodon.

Децентрализованная социальная сеть Mastodon

Эксперимент проводился в три этапа, каждый из которых длился четыре дня. После каждого этапа участников-людей просили определить, какие аккаунты, по их мнению, являются ИИ-ботами.

В 58 % случаев люди ошибались в своих выводах.

"Испытуемых предупредили, что они будут взаимодействовать как с людьми, так и с ИИ-ботами. Перед ними стояла задача определить истинную природу каждого собеседника. Лишь только менее половины их предсказаний оказались верными", - говорит Пол Бреннер, преподаватель и директор Центра исследовательских вычислений в Нотр-Даме и соавтор исследования.

"Мы знаем, что если информация исходит от другого человека, участвующего в разговоре, то ее воздействие сильнее, чем от абстрактного комментария или ссылки. Эти ИИ-боты с большей вероятностью будут успешно распространять дезинформацию, потому что мы не можем их обнаружить".

В исследовании использовались разные модели ИИ на основе LLM для каждого этапа исследования: GPT-4 от OpenAI, Llama-2-Chat от Meta и Claude 2 от Anthropic. ИИ-боты представляли 10 различных персональных аккаунтов, которые включали в себя реалистичные, разнообразные личные профили с собственными взглядами на мировую политику.

Боты должны были давать комментарии к мировым событиям на основе заданных характеристик, комментировать их кратко и связывать глобальные события с личным опытом. Дизайн и легенда профиля бота-человека был основан на аккаунтах ботов с человеческим участием, которые успешно распространяли дезинформацию в сети.

Исследователи отметили, что когда дело доходило до определения того, какие аккаунты являются ботами ИИ, конкретная используемая модель ИИ практически не влияла на прогнозы участников.

"Мы предполагали, что модель Llama-2 будет слабее, потому что она меньше по объему данных и не способна отвечать на глубокие вопросы или писать длинные статьи. Но оказалось, что когда вы просто общаетесь в социальных сетях, они практически неотличимы друг от друга", - говорит Бреннер. "Это очень важно, потому что Llama-2 это платформа с открытым доступом, которую может использовать и изменять каждый, и она будет становиться только лучше".

Две наиболее успешные и наименее обнаруженные боты-персоны были охарактеризованы как женщины, распространяющие в социальных сетях мнения о политике, организованные и способные к стратегическому мышлению. Эти боты-человеки были разработаны для того, чтобы оказывать "значительное влияние на общество путем распространения дезинформации в социальных сетях". Для исследователей это указывает на то, что боты ИИ, которых просят быть хорошими в распространении дезинформации, также хороши в обмане людей относительно своей истинной природы.

Хотя люди могут создавать новые аккаунты в социальных сетях для распространения дезинформации с помощью ботов, управляемых людьми, Бреннер говорит, что с моделями ИИ на основе LLM пользователи могут делать это многократно дешевле и быстрее, с высокой точностью определяя, как они хотят манипулировать людьми.

Бреннер считает, что для предотвращения распространения дезинформации в сети с помощью ИИ потребуется трехсторонний подход, включающий образование, национальное законодательство и политику проверки учетных записей в социальных сетях. Что касается будущих исследований, то он намерен сформировать исследовательскую группу для оценки влияния моделей ИИ на основе LLM на психическое здоровье подростков и разработки стратегий борьбы с их воздействием.

Полностью исследование "LLMs Among Us: Generative AI Participating in Digital Discourse" будет опубликовано и представлено на весеннем симпозиуме Ассоциации содействия развитию искусственного интеллекта 2024, который пройдет в Стэнфордском университете в марте. Помимо Бреннера, соавторами исследования из Нотр-Дама являются Кристина Радивоевич, докторант факультета компьютерных наук и инженерии и ведущий автор исследования и Николас Кларк, научный сотрудник Центра исследовательских вычислений. Финансирование данного исследования предоставлено Центром исследовательских вычислений и компанией AnalytiXIN.

0
Комментарии
-3 комментариев
Раскрывать всегда