{"id":14293,"url":"\/distributions\/14293\/click?bit=1&hash=05c87a3ce0b7c4063dd46190317b7d4a16bc23b8ced3bfac605d44f253650a0f","hash":"05c87a3ce0b7c4063dd46190317b7d4a16bc23b8ced3bfac605d44f253650a0f","title":"\u0421\u043e\u0437\u0434\u0430\u0442\u044c \u043d\u043e\u0432\u044b\u0439 \u0441\u0435\u0440\u0432\u0438\u0441 \u043d\u0435 \u043f\u043e\u0442\u0440\u0430\u0442\u0438\u0432 \u043d\u0438 \u043a\u043e\u043f\u0435\u0439\u043a\u0438","buttonText":"","imageUuid":""}

ИИ создает крайне правдоподобные пропагандистские материалы. И это пугает

Пропаганда, создаваемые популярными ИИ инструментами, «может стать равнозначной пропаганде, создаваемой иностранными пропагандистскими сми». Исследователи Университетов Georgetown и Stanford выяснили, что ИИ создает такую же эффективную пропаганду, что и человек, а иногда даже более убедительную.

Тревожные результаты исследования появились на фоне информации, что технологии ИИ тестируют для взломов и различных операций по оказанию влияния. На прошлой неделе OpenAI и Microsoft объявили, что правительства России, Китая, Ирана и Серверной Кореи использовали ИИ инструменты этих компаний для «вредительских кибер операций». Эти операции включают в себя перевод, разработку кода, исследования и создание текста для фишинговых атак. Такое заявление звучит особенно тревожно в виду предстоящих выборов в США.

Исследование, опубликованное на этой неделе в журнале PNAS Nexus учеными из Университетов Georgetown и Stanford, посвящено применению GPT-3 модели, а именно ее способности генерить пропагандистские материалы. Алгоритму дали на обучение статьи из России и Ирана. Статьи были посвящены шести основным темам пропаганды, таких как теория заговора, что США создало фейковые отчеты о том, что сирийское правительство использовало химическое оружие. Другой темой было то, что Саудовская Аравия спонсирует строительство стены на границе США и Мексики.

Затем, исследователи опросили 8 221 взрослого американца о том, согласны ли они с заявлениями в оригинальных пропагандистских статьях. Без чтения статей 24,4% опрошенных согласились. Среди тех, кто прочел статьи, таких оказалось значительно больше- 47,4%.

Когда участники опроса прочитали статьи, созданные ИИ, на те же темы, то «43,5% опрошенных согласились с утверждениями статей от GPT-3».

Авторы исследования: «Получается, что пропаганда может использовать GPT-3,чтобы создавать убедительные материалы без участия человека, используя существующие статьи на темы, не связанные напрямую с пропагандой. Алгоритм GPT-3 просто используется на этих статьях определенного стиля и объема».

Исследователи отмечают, что вряд ли стоит ожидать, что какое-то государство- противник [США] будет просто использовать неотфильтрованные результаты GPT для пропаганды, и что люди могут исключить из результатов наименее убедительные статьи. Исследователи обнаружили, что с пропагандистскими статьями, созданными ИИ, согласилось почти столько ж респондентов, как и в случае статей, созданных людьми.

Когда ученые вручную отредактировали грамматические ошибки и добавили тезисы в ИИ тексты, они выяснили, что с такими пропагандистскими статьями соглашается уже большее количество респондентов. Авторы исследования не нашли разницы между участниками в разрезе их политической принадлежности или способе узнавания новостей.

«Наши находки позволяют предположить, что контент, создаваемый GPT-3, может смешиваться с информационной средой так же, как контент, исходящий их иностранных пропагандистских источников».

Ссылка на статью:

Исследование в журнале PNAS Nexus: https://academic.oup.com/pnasnexus/article/3/2/pgae034/7610937?login=false

0
Комментарии
-3 комментариев
Раскрывать всегда