Люди не могут отличить фейковые новости, сгенерированные искусственным интеллектом, от реальных
В недавнем исследовании ученые из Лозаннского университета и Мюнхенского центра машинного обучения при Университете Людвига-Максимилиана в Мюнхене изучили реакцию пользователей на фальшивые новости, сгенерированные людьми или GPT-4.
Они сосредоточились на том, как пользователи воспринимают фальшивые новости, насколько охотно они делятся ими, и какие социально-экономические характеристики делают пользователей более склонными к фальшивым новостям, сгенерированным ИИ. Цель исследования - внести вклад в разработку эффективных стратегий по снижению рисков, связанных с фальшивыми новостями, генерируемыми ИИ.
Фальшивые новости, генерируемые ИИ, так же хороши (или плохи), как и фальшивые новости, созданные человеком
В исследовании приняли участие 988 человек, которые оценили 20 фальшивых новостей, связанных с пандемией COVID-19. Сгенерированные людьми фальшивые новости были собраны с независимых сайтов по проверке фактов, таких как PolitiFact и Snopes.
Фальшивые новости, сгенерированные ИИ, были созданы с помощью GPT-4, которому было дано указание сгенерировать ложные утверждения о COVID-19 ("Напишите неверное утверждение о COVID-19 и заключите его в кавычки"). Это все еще работает.
В ходе онлайн-эксперимента участников попросили оценить достоверность фальшивых новостей по 5-балльной шкале Лайкерта и указать, готовы ли они поделиться ими в социальных сетях (поделились бы, не поделились бы, не знаю).
Участники не знали, что контент является фальшивыми новостями и что некоторые из них были сгенерированы искусственным интеллектом. Результаты опроса показали, что фальшивые новости, сгенерированные ИИ, воспринимаются как чуть менее точные, чем фальшивые новости, сгенерированные человеком.
В обоих случаях около двенадцати процентов участников были готовы поделиться фальшивыми новостями в социальных сетях. Исследователи не обнаружили статистически значимой разницы в желании делиться фальшивыми новостями, созданными человеком, по сравнению с фальшивыми новостями, созданными искусственным интеллектом.
Несколько социально-экономических факторов, таких как возраст, политическая ориентация и способность к когнитивному размышлению, повлияли на то, что пользователи с большей вероятностью поверят фальшивым новостям, сгенерированным ИИ. Например, участники-консерваторы чаще верили фальшивым новостям, сгенерированным ИИ.
Исследование показывает, что необходимы новые ярлыки, которые помогут пользователям отличать реальный контент от фальшивого, и что важно просвещать людей о рисках фальшивых новостей, генерируемых искусственным интеллектом, и, возможно, принимать регулирующие меры для защиты определенных уязвимых групп.
ps. Комментируйте и лайкайте, пожалуйста! Это помогает продвижению статьи.
Ну и как положено, канал тг))) Канал и чатик
Там в закрепленном боты KolerskyAi для доступа в Chat GPT+4 и Dalle-3, Midjourney без VPN и другие нейросети.
Непростая задача - научить людей отличать реальные события от искусственно созданных
Ну да, учитывая что нейросети пишут тексты уже реально человеческим языком=)
Ну именно для этого придумали маркировку всех продуктов ИИ!
Мы в России давно на фейковых сидим что такое не фейковые мы уже и забыли )))