ИИ способен менять мнение избирателей на 15%. Новые исследования показывают, насколько уязвима демократия
Новое исследование Корнельского университета и Британского института безопасности ИИ показывает: широко используемые чат-боты могут менять политические предпочтения в контролируемых условиях на огромные 15%. В эксперименте участвовали почти 6000 человек из США, Канады и Польши — и во всех странах люди меняли мнение о кандидате после краткого общения с ИИ. Особенно сильно эффект проявлялся, когда бот поддерживал того же кандидата или — ещё опаснее — убеждал в обратном.
Учёные также выяснили, что «политические» сообщения убеждают заметно сильнее, чем персональные, а точность утверждений зависит от того, кого модель поддерживает. В ряде случаев чат-боты, симпатизирующие правым кандидатам, давали менее точную информацию, даже когда их прямо просили говорить правду. В другом масштабном исследовании на Science (76 977 участников) стало ясно, что убедительность зависит не столько от размера модели, сколько от того, какие промпты задаёт человек — и что запросы, побуждающие ИИ добавлять новую информацию, усиливают эффект, но снижают точность.
Эксперты предупреждают: иллюзия нейтральности ИИ — опасна. Молодые консерваторы, например, готовы передавать ИИ полномочия в госуправлении чаще, чем либералы, а аналитики подчёркивают, что крупные технокорпорации давно влияют на видимый людям контент. И если модели уже сегодня способны менять отношение к кандидатам за несколько минут разговора — возникает вопрос: что будет, когда эти инструменты станут ещё точнее, персонализированнее и массовее?