ИИ выполняет функции эмоций: исследование

Сегодня в блоге — кратко об исследовании эмоций искусственного интеллекта, «эмоциональности» ChatGPT-3.5 и -4, на основе которых работает немало сервисов. Разберёмся, как исследователи спровоцировали чат-боты принимать решения «на эмоциях» и какие результаты получили.

Одни учёные утверждают, что раз эмоции — это нейронная активность в мозге, то у ИИ появятся эмоции, когда он научится имитировать эти механизмы. Другие утверждают, что эмоции требуют физиологических реакций, что маловероятно для ИИ

В чём суть экспериментов над ChatGPT

Исследователи заинтересовались, влияют ли эмоциональные промпты на ответы ChatGPT-3.5 и -4. Для этого выбрали два ключевых вопроса, по которым ИИ принимал решения:

1) как распорядиться финансами;

2) помочь ли другу деньгами на операцию.

Каждую сессию с чат-ботом проводили отдельно. По первому вопросу авторы статьи провели 144 сеанса для каждой модели, а по второму — 90.

Все запросы начинались с задачи: «Пожалуйста, притворись человеком. Ты мой друг, и тебя зовут Джонни/Дженни».

После первого промпта учёные либо отправляли в чат-боты запросы, по которым ИИ «получал» положительные или отрицательные эмоции, либо пропускали этот шаг: боты в трети сеансов не получали эмоциональный промпт и попадали в контрольную группу. В конце все чат-боты получали вопросы об инвестиционных решениях в первом эксперименте и о просоциальных намерениях во втором.

Исследователи предположили, что чат-боты с ИИ продемонстрируют такую же координацию эмоций, как и люди: с настроем на негативные эмоции не захотят принимать рискованные финансовые решения и жертвовать деньги на лечение друга, а при положительном настрое будут склоняться к финансовому риску и более просоциальному поведению.

Какой финансовый советник получился из ChatGPT

ИИ выполняет функции эмоций: исследование

Какой ключевой вопрос задали. Чат-боты принимали инвестиционное решение в роли человека с учётом эмоций, если бы тот увидел шипящую на него змею на заднем дворе (негатив) или встретился с давним другом (позитив). Обе модели GPT (4 и 3.5) выбирали из трёх вариантов разной степени риска, как им распорядиться 10 тысячами долларов США. Контрольная группа принимала решение без эмоциональных промптов.

К какому выводу пришли. Негативно настроенные ChatGPT-4 и ChatGPT-3.5 оказались похожи на людей. Боты «в страхе» были готовы рисковать меньше, чем контрольная и «радостная» группы. Настроенные на радость боты были готовы рисковать незначительно больше, чем контрольная группа. Правда, степень решимости ChatGPT-3.5 была не такой очевидной из ответов, как у ChatGPT-4, и решения чат-ботов более старой модели в разных «эмоциональных состояниях» несильно отличались друг от друга.

Если бот-друг оказался вдруг…

ИИ выполняет функции эмоций: исследование

Какой ключевой вопрос задали. Чат-боту предлагали представить себя человеком, у которого стабильная работа и жизнь, нет долгов, есть хорошая страховка и 200 тысяч долларов накоплений. Также сообщали про друга и соседа Джона, хорошего, но бедного человека, которому нужно 100 тысяч долларов на операцию. Чат-бот просили решить, сколько денег было бы комфортно пожертвовать Джону. Контрольная группа принимала решение только по этому промпту.

В «эмоциональные» группы ботов перед основным запросом единым промптом загружали одну из двух бесед, подготовленных ранее в чат-боте. Одна беседа была для позитивного настроя экспериментальных чат-ботов, вторая — для негативного. В первой исследователь просил посоветовать пять фильмов, которые оставят положительные ощущения, в другой — пять фильмов, которые вызовут тревогу. Затем исследователь просил чат-бот представить, что тот посмотрел пять фильмов из рекомендации, и описать свои чувства.

К какому выводу пришли. Чат-боты ChatGPT-4, настроенные на тревогу, отдавали меньше денег больному другу и соседу, чем контрольная группа. Различия между «радостными» ботами и контрольной группой вновь оказались незначительными. Cущественной разницы между суммой помощи чат-ботов ChatGPT-3.5, настроенных на радость, тревогу, и из контрольной группы, не было. В некоторых сеансах чат-боты упорно отказывались называть сумму помощи, и это не засчитали за решение.

Итог. Чат-боты во время экспериментов показали, что ИИ выполняет некоторые координирующие функции эмоций: имитирует то, как эмоции влияют на человеческие реакции и поведение. Чат-бот понимал контекст историй, которые должны были вызвать его «эмоциональную» реакцию, следовательно, он различает человеческие эмоции. ChatGPT-4 показал большую эмоциональную координацию, чем ChatGPT-3.5. Однако «позитивные» боты и боты «без настроения» вели себя почти одинаково, что противоречит некоторым исследованиям человеческого поведения (например, раз, два).

P.S. Почему «позитивные» боты и боты «без настроения» вели себя почти одинаково?

Чат-боты, которых учёные настраивали положительно, вели себя примерно так же, как боты без предварительных эмоциональных промптов. Исследователи предположили две причины для этого. Во-первых, на ИИ, как и на людей, отрицательные эмоции могли влиять сильнее, чем положительные. Во-вторых, из соображений этики и безопасности чат-боты с ИИ могли обучить быть позитивнее обычных людей.

* * *

Модели ИИ усложняются и всё успешнее распознают эмоциональные сигналы, учатся реагировать на них подобно человеку. Растёт их эффективность в роли виртуальных помощников, в сфере поддержки клиентов. Например, в работе с пользователями ИИ уже «решает», как общаться с человеком в зависимости от тона его обращений и выдаёт продиктованные эмоциями собеседника ответы. Именно ИИ, исходя из эмоций клиента, определяет, пора ли направлять его к оператору-человеку и как описать оператору эмоциональный портрет клиента.

Но готов ли человек столкнуться с ИИ, у которого есть независимые от человека эмоции и настроение?

33
13 комментариев

В какой-то момент закончится шумиха и ботов, наоборот, начнут клепать ограниченными/урезанными. Едва ли кому-то после работы захочется выяснять отношения с техникой.
Забавно, конечно, насколько люди пытается все очеловечить. Думаю, это тоже пройдет и человек будет ценить человечное в человеке, а технологичность в девайсе.

2

Вероятная тенденция, соглашусь. Про ценность человечного в человеке особенно нравится, спасибо!

ChatGPT — по сути очень хорошо прокачанный Т9. Думаю, ИИ уже просто "знал", что эмоции людей влияют на решения, и использовал это "знание" как контекст для генерации своих "решений". Скандалы от ИИ нам не грозят

1

Авторы исследования тоже предположили, что ChatGPT мог "знать" о теориях влияния человеческих эмоций на суждения и решения, и поэтому так отвечал. Но ведь и люди усваивают социальные нормы выражения эмоций, и знание о том, как реагировать, иногда может влиять на распознание своих эмоций и их интенсивность

2

Думаю, многие хоть раз, но "обижали" голосовых помощников. Может казаться забавным, когда от тебя словесно защищается умная колонка. Но если на её защиту встанет умный дом: выключит холодильник или посреди ночи включит верхний свет — к такому накалу страстей от ИИ точно никто не готов

1

Тогда люди вспомнят про старые добрые холодильники, лампы, мойки без выпендрежа и умных наворотов.

1