Итог. Чат-боты во время экспериментов показали, что ИИ выполняет некоторые координирующие функции эмоций: имитирует то, как эмоции влияют на человеческие реакции и поведение. Чат-бот понимал контекст историй, которые должны были вызвать его «эмоциональную» реакцию, следовательно, он различает человеческие эмоции. ChatGPT-4 показал большую эмоциональную координацию, чем ChatGPT-3.5. Однако «позитивные» боты и боты «без настроения» вели себя почти одинаково, что противоречит некоторым исследованиям человеческого поведения (например, раз, два).
В какой-то момент закончится шумиха и ботов, наоборот, начнут клепать ограниченными/урезанными. Едва ли кому-то после работы захочется выяснять отношения с техникой.
Забавно, конечно, насколько люди пытается все очеловечить. Думаю, это тоже пройдет и человек будет ценить человечное в человеке, а технологичность в девайсе.
Вероятная тенденция, соглашусь. Про ценность человечного в человеке особенно нравится, спасибо!
ChatGPT — по сути очень хорошо прокачанный Т9. Думаю, ИИ уже просто "знал", что эмоции людей влияют на решения, и использовал это "знание" как контекст для генерации своих "решений". Скандалы от ИИ нам не грозят
Авторы исследования тоже предположили, что ChatGPT мог "знать" о теориях влияния человеческих эмоций на суждения и решения, и поэтому так отвечал. Но ведь и люди усваивают социальные нормы выражения эмоций, и знание о том, как реагировать, иногда может влиять на распознание своих эмоций и их интенсивность
Думаю, многие хоть раз, но "обижали" голосовых помощников. Может казаться забавным, когда от тебя словесно защищается умная колонка. Но если на её защиту встанет умный дом: выключит холодильник или посреди ночи включит верхний свет — к такому накалу страстей от ИИ точно никто не готов
Тогда люди вспомнят про старые добрые холодильники, лампы, мойки без выпендрежа и умных наворотов.
Одеяло 🥲