Функция голосовой связи связывает пользователей ChatGPT с нейросетью эмоциональными узами

Согласно новому исследованию OpenAI и MIT Media Lab, большинство людей используют ChatGPT в практических целях. Исследование показывает, что эмоциональные связи в основном развиваются среди небольшой группы активных пользователей функции голосовой связи.

Проанализировав почти 40 миллионов разговоров в ChatGPT, исследователи обнаружили мало свидетельств того, что пользователи ищут сочувствия, привязанности или эмоциональной поддержки в своих взаимодействиях. Вместо этого большинство людей ограничиваются обменом фактами с системой искусственного интеллекта.

Сгенерирована нейросеть Luma

Команда использовала два разных подхода для изучения того, как люди взаимодействуют с ChatGPT. OpenAI провела крупномасштабный автоматизированный анализ миллионов разговоров, сохранив конфиденциальность пользователей, избегая просмотра человеком. В то же время, MIT Media Lab провела исследование с участием около 1000 участников, проверяя, как они используют как текстовые, так и голосовые функции.

Исследование MIT разделило пользователей на отдельные группы. Некоторые могли использовать только текст, в то время как другие тестировали голосовое взаимодействие с разными личностями ИИ - один создан для эмоциональной вовлеченности, а другой запрограммирован на нейтралитет. Каждая группа получила конкретные задания: личные беседы о воспоминаниях, практические вопросы на такие темы, как финансы, или обсуждения в свободной форме.

Пользователи голосового метода ChatGPT с большей вероятностью привязываются к ИИ

В то время как пользователи текстовых сообщений в целом демонстрировали больше эмоциональных сигналов в своих разговорах, данные выявили тенденцию среди частых пользователей расширенного голосового режима ChatGPT. У этой небольшой группы развились значительно более сильные эмоциональные связи с искусственным интеллектом, и они чаще обращаются к ChatGPT как к "другу".

Эффекты функции голосовой связи значительно различались. Кратковременные взаимодействия, казалось, заставляли людей чувствовать себя лучше, но более длительное ежедневное использование часто приводило к противоположному эффекту. Согласно исследованию, личные разговоры были связаны с более высоким уровнем одиночества, но меньшей эмоциональной зависимостью.

Неличные разговоры показали иную закономерность: у пользователей развилась более сильная эмоциональная зависимость, особенно при интенсивном использовании. Это говорит о том, что даже когда взаимодействия носят в основном функциональный, а не эмоциональный характер, у активных пользователей все еще может развиться форма зависимости от системы искусственного интеллекта.

 На графике показаны различные модели взаимодействия в ChatGPT, исследованные в исследовании
 На графике показаны различные модели взаимодействия в ChatGPT, исследованные в исследовании

По мнению исследователей, люди, склонные к формированию сильных эмоциональных привязанностей, и те, кто рассматривал ChatGPT как настоящего друга, с большей вероятностью испытывали негативные последствия. У активных пользователей также был повышенный риск, хотя исследователи не смогли доказать прямую причину и следствие.

Исследование сопровождается некоторыми важными ограничениями. По словам исследователей, оно не отражает всех сложностей взаимодействия людей с искусственным интеллектом и ограничено пользователями ChatGPT из США. Тем не менее, исследователи полагают, что их методы могут помочь в будущих исследованиях в этой области.

Эта работа дополняет существующие доказательства того, что люди могут устанавливать эмоциональные связи с искусственным интеллектом, даже если они знают, что это не человек. Отчасти поэтому компании, занимающиеся искусственным интеллектом, пытаются помешать своим чат-ботам вести себя как сознательные существа - они хотят избежать ответственности за романтические отношения между людьми и машинами. Например, за характер.в настоящее время искусственный интеллект сталкивается с юридическими проблемами из-за заявлений о том, что его ИИ-личности причинили вред детям.

Краткие сведения

  • Совместное исследование OpenAI и MIT Media Lab показало, что большинство пользователей фактически общались с чат-ботом и практически не устанавливали эмоциональных связей.
  • Однако небольшая группа частых пользователей расширенной функции голосовой связи демонстрировала более четкое эмоциональное взаимодействие и с большей вероятностью называла ChatGPT другом.
  • По мнению исследователей, люди, склонные к установлению прочных эмоциональных связей, и те, кто рассматривал ChatGPT как настоящего друга, с большей вероятностью испытывали негативные последствия от чрезмерного использования чат-ботов.
Начать дискуссию