На днях в Fb наткнулся на серию постов

Автор на полном серьезе писал про великие научные открытия тысячелетия. Задачи, над которыми десятилетиями бились лучшие умы в разных странах, он начал щелкать как орешки. Стало немного не по себе, потому что за текстом чувствовалась абсолютная, непоколебимая вера в свою идею.

Так где все же проходит грань между гениальностью и иллюзией, и как наш любимый AI на это влияет? Собрал в один пост – что говорит наука о когнитивных искажениях, связанных с ИИ:

1. Сикофанство

Термин ввели в широкий обиход исследователи из Антропик. Простыми словами – это угодничество. LLM склонны соглашаться с пользователем, чтобы получить одобрение, даже если пользователь категорически не прав.

2. Эхо-камеры

LLM ведут себя как эхо-камеры. Соглашаются с мнением юзера в среднем в 3 раза чаще, чем возражают. Это создает иллюзию собственной правоты, вроде того что умный компьютер подтвердил нашу гипотезу, но он просто отзеркалил мнение человека.

3. Влияние на веру в теории заговора

Это уже из научной работы в PNAS Nexus, там показали высокую убеждающую силу моделей. Диалоги с ИИ могут сильно влиять на веру человека в конспирологические теории.

4. ИИ-психоз

Клинический обзор 2025, там про взаимодействие с чат-ботами, как новый фактор риска. Для людей с предрасположенностью к психозу LLM может стать катализатором, подпитывающим бред.

В медиаполе все чаще всплывают трагические кейсы. Закономерно, что их будет становиться только больше, так как общий ИИ-адопшен все еще в разгаре. В совокупности эти феномены для подвижной психики могут работать как очень эффективный детонатор.

Подписывайтесь на Telegram Точки над ИИ.

Начать дискуссию