Microsoft запатентовала терапевтическое приложение на базе ИИ
Microsoft только что подала заявку на патент для терапевтичского приложения с искусственным интеллектом. Что вы при этом чувствуете?
Согласно заявке, впервые попавшей в поле зрения пользователей Windows в Microsoft Power User, ИИ—психотерапевт, описываемый как "метод и устройство для оказания эмоциональной помощи во время сеанса между пользователем и диалоговым агентом", предназначен для оказания пользователям эмоциональной поддержки, анализа их чувств и тщательного хранения пользовательская информация и разговоры, чтобы иметь возможность создать "память" о пользователе, его жизни и эмоциональных триггерах.
Модель, по—видимому, способна обрабатывать как изображения, так и текст, и, что важно, она, по—видимому, предназначена не столько для экстренной помощи - если вы находитесь в серьезном эмоциональном кризисе, вы определенно захотите обратиться за помощью к человеку, - сколько для общего пространства, где пользователь может поговорить о жизни.
Как следует из материалов дела, по мере того, как искусственный интеллект собирает больше информации о своих пользователях, он может начать улавливать определенные эмоциональные сигналы. Основываясь на этих сигналах, он может задать несколько наводящих вопросов — и даже, в некоторых случаях, внести предложения о том, как пользователь мог бы справиться со своими проблемами.
Как показывает один рисунок, предоставленный Microsoft, сообщение от пользователя о том, что он "чувствует себя так плохо в эти дни", побуждает ИИ спросить: "Что случилось?" Когда пользователь отвечает, что семейные неурядицы заставили его почувствовать усталость, искусственный интеллект предполагает, что пользователь может подумать о "30-минутной пробежке для освежения".
Но Microsoft, похоже, верит, что искусственный интеллект также может проводить более глубокий психоанализ. Согласно одному из рисунков, у пользователя также есть возможность пройти "явный психологический тест", который, по словам Microsoft, будет оцениваться с помощью "алгоритма подсчета очков, заранее определенного психологами или экспертами в психологических областях".
Это, конечно, не первый случай, когда была предпринята попытка применить искусственный интеллект к психиатрической помощи. Нечто под названием Woebot, по-видимому, существует, и кто мог забыть катастрофический набег Национальной ассоциации по борьбе с расстройствами пищевого поведения на сервисы чат-ботов? Также верно, что люди уже обратились к нескольким ботам, не связанным с терапией, для общения и поддержки, и у многих людей развиваются глубокие личные связи с этими ИИ.
Однако с этой целью мы были бы неосторожны отметить, что в ряде случаев эти взаимодействия в конечном итоге причинили гораздо больше вреда, чем пользы.
Еще в апреле утверждалось, что бельгиец, страдающий сильной тревогой из-за климата, покончил с собой после того, как обратился за поддержкой к чат-боту.
А в 2021 году тогдашний 19-летний подросток попытался убить покойную королеву Елизавету II - да, серьезно - из арбалета после того, как нашел поддержку и ободрение для осуществления смертельного заговора у своей подруги с искусственным интеллектом.
И в других местах, в значительно менее экстремальных случаях, некоторые пользователи приложений-компаньонов для чат-ботов сообщали о том, что чувствовали себя расстроенными, когда их друзья-чат-боты и возлюбленные были удалены.
Если бы ИИ Microsoft наладил тесные отношения с пользователями, а затем по какой—либо причине отключился — это был бы не первый случай, когда Microsoft убивает бота, - мы могли бы представить, что клиенты терапевтического ИИ могли бы пройти через подобное болезненное испытание.
Здесь также есть несколько более очевидных предостережений об ответственности.
Чтобы сделать подобное приложение одновременно функциональным и безопасным, Microsoft потребуется внедрить пуленепробиваемые средства защиты от искусственного интеллекта.
И, подобно человеческому терапевту, бот, вероятно, должен быть обязан сообщать об опасном или тревожащем поведении властям или специальным службам здравоохранения.
И все же, независимо от его ограничений, еще неизвестно, будет ли какой-либо современный искусственный интеллект обладать эмоциональным нюансом, необходимым для решения сложных и часто хрупких ситуаций, связанных с психическим здоровьем и болезнями. Что, если это говорит что-то не то тому, кто борется, или просто говорит недостаточно?
Трудно представить, что бот мог бы предложить кому—то такое же сочувствие и поддержку, как хороший человек-терапевт, но, согласно этому патенту, это, по-видимому, еще предстоит выяснить.