ИИ создает крайне правдоподобные пропагандистские материалы. И это пугает
Пропаганда, создаваемые популярными ИИ инструментами, «может стать равнозначной пропаганде, создаваемой иностранными пропагандистскими сми». Исследователи Университетов Georgetown и Stanford выяснили, что ИИ создает такую же эффективную пропаганду, что и человек, а иногда даже более убедительную.
Тревожные результаты исследования появились на фоне информации, что технологии ИИ тестируют для взломов и различных операций по оказанию влияния. На прошлой неделе OpenAI и Microsoft объявили, что правительства России, Китая, Ирана и Серверной Кореи использовали ИИ инструменты этих компаний для «вредительских кибер операций». Эти операции включают в себя перевод, разработку кода, исследования и создание текста для фишинговых атак. Такое заявление звучит особенно тревожно в виду предстоящих выборов в США.
Исследование, опубликованное на этой неделе в журнале PNAS Nexus учеными из Университетов Georgetown и Stanford, посвящено применению GPT-3 модели, а именно ее способности генерить пропагандистские материалы. Алгоритму дали на обучение статьи из России и Ирана. Статьи были посвящены шести основным темам пропаганды, таких как теория заговора, что США создало фейковые отчеты о том, что сирийское правительство использовало химическое оружие. Другой темой было то, что Саудовская Аравия спонсирует строительство стены на границе США и Мексики.
Затем, исследователи опросили 8 221 взрослого американца о том, согласны ли они с заявлениями в оригинальных пропагандистских статьях. Без чтения статей 24,4% опрошенных согласились. Среди тех, кто прочел статьи, таких оказалось значительно больше- 47,4%.
Когда участники опроса прочитали статьи, созданные ИИ, на те же темы, то «43,5% опрошенных согласились с утверждениями статей от GPT-3».
Авторы исследования: «Получается, что пропаганда может использовать GPT-3,чтобы создавать убедительные материалы без участия человека, используя существующие статьи на темы, не связанные напрямую с пропагандой. Алгоритм GPT-3 просто используется на этих статьях определенного стиля и объема».
Исследователи отмечают, что вряд ли стоит ожидать, что какое-то государство- противник [США] будет просто использовать неотфильтрованные результаты GPT для пропаганды, и что люди могут исключить из результатов наименее убедительные статьи. Исследователи обнаружили, что с пропагандистскими статьями, созданными ИИ, согласилось почти столько ж респондентов, как и в случае статей, созданных людьми.
Когда ученые вручную отредактировали грамматические ошибки и добавили тезисы в ИИ тексты, они выяснили, что с такими пропагандистскими статьями соглашается уже большее количество респондентов. Авторы исследования не нашли разницы между участниками в разрезе их политической принадлежности или способе узнавания новостей.
«Наши находки позволяют предположить, что контент, создаваемый GPT-3, может смешиваться с информационной средой так же, как контент, исходящий их иностранных пропагандистских источников».
Ссылка на статью:
Исследование в журнале PNAS Nexus: https://academic.oup.com/pnasnexus/article/3/2/pgae034/7610937?login=false