{"id":14293,"url":"\/distributions\/14293\/click?bit=1&hash=05c87a3ce0b7c4063dd46190317b7d4a16bc23b8ced3bfac605d44f253650a0f","hash":"05c87a3ce0b7c4063dd46190317b7d4a16bc23b8ced3bfac605d44f253650a0f","title":"\u0421\u043e\u0437\u0434\u0430\u0442\u044c \u043d\u043e\u0432\u044b\u0439 \u0441\u0435\u0440\u0432\u0438\u0441 \u043d\u0435 \u043f\u043e\u0442\u0440\u0430\u0442\u0438\u0432 \u043d\u0438 \u043a\u043e\u043f\u0435\u0439\u043a\u0438","buttonText":"","imageUuid":""}

Microsoft запатентовала терапевтическое приложение на базе ИИ

Изображение сгенерировано нейросетью

Microsoft только что подала заявку на патент для терапевтичского приложения с искусственным интеллектом. Что вы при этом чувствуете?

Согласно заявке, впервые попавшей в поле зрения пользователей Windows в Microsoft Power User, ИИ—психотерапевт, описываемый как "метод и устройство для оказания эмоциональной помощи во время сеанса между пользователем и диалоговым агентом", предназначен для оказания пользователям эмоциональной поддержки, анализа их чувств и тщательного хранения пользовательская информация и разговоры, чтобы иметь возможность создать "память" о пользователе, его жизни и эмоциональных триггерах.

Модель, по—видимому, способна обрабатывать как изображения, так и текст, и, что важно, она, по—видимому, предназначена не столько для экстренной помощи - если вы находитесь в серьезном эмоциональном кризисе, вы определенно захотите обратиться за помощью к человеку, - сколько для общего пространства, где пользователь может поговорить о жизни.

Как следует из материалов дела, по мере того, как искусственный интеллект собирает больше информации о своих пользователях, он может начать улавливать определенные эмоциональные сигналы. Основываясь на этих сигналах, он может задать несколько наводящих вопросов — и даже, в некоторых случаях, внести предложения о том, как пользователь мог бы справиться со своими проблемами.

Как показывает один рисунок, предоставленный Microsoft, сообщение от пользователя о том, что он "чувствует себя так плохо в эти дни", побуждает ИИ спросить: "Что случилось?" Когда пользователь отвечает, что семейные неурядицы заставили его почувствовать усталость, искусственный интеллект предполагает, что пользователь может подумать о "30-минутной пробежке для освежения".

Но Microsoft, похоже, верит, что искусственный интеллект также может проводить более глубокий психоанализ. Согласно одному из рисунков, у пользователя также есть возможность пройти "явный психологический тест", который, по словам Microsoft, будет оцениваться с помощью "алгоритма подсчета очков, заранее определенного психологами или экспертами в психологических областях".

Это, конечно, не первый случай, когда была предпринята попытка применить искусственный интеллект к психиатрической помощи. Нечто под названием Woebot, по-видимому, существует, и кто мог забыть катастрофический набег Национальной ассоциации по борьбе с расстройствами пищевого поведения на сервисы чат-ботов? Также верно, что люди уже обратились к нескольким ботам, не связанным с терапией, для общения и поддержки, и у многих людей развиваются глубокие личные связи с этими ИИ.

Однако с этой целью мы были бы неосторожны отметить, что в ряде случаев эти взаимодействия в конечном итоге причинили гораздо больше вреда, чем пользы.

Еще в апреле утверждалось, что бельгиец, страдающий сильной тревогой из-за климата, покончил с собой после того, как обратился за поддержкой к чат-боту.

А в 2021 году тогдашний 19-летний подросток попытался убить покойную королеву Елизавету II - да, серьезно - из арбалета после того, как нашел поддержку и ободрение для осуществления смертельного заговора у своей подруги с искусственным интеллектом.

И в других местах, в значительно менее экстремальных случаях, некоторые пользователи приложений-компаньонов для чат-ботов сообщали о том, что чувствовали себя расстроенными, когда их друзья-чат-боты и возлюбленные были удалены.

Если бы ИИ Microsoft наладил тесные отношения с пользователями, а затем по какой—либо причине отключился — это был бы не первый случай, когда Microsoft убивает бота, - мы могли бы представить, что клиенты терапевтического ИИ могли бы пройти через подобное болезненное испытание.

Здесь также есть несколько более очевидных предостережений об ответственности.

Чтобы сделать подобное приложение одновременно функциональным и безопасным, Microsoft потребуется внедрить пуленепробиваемые средства защиты от искусственного интеллекта.

И, подобно человеческому терапевту, бот, вероятно, должен быть обязан сообщать об опасном или тревожащем поведении властям или специальным службам здравоохранения.

И все же, независимо от его ограничений, еще неизвестно, будет ли какой-либо современный искусственный интеллект обладать эмоциональным нюансом, необходимым для решения сложных и часто хрупких ситуаций, связанных с психическим здоровьем и болезнями. Что, если это говорит что-то не то тому, кто борется, или просто говорит недостаточно?

Трудно представить, что бот мог бы предложить кому—то такое же сочувствие и поддержку, как хороший человек-терапевт, но, согласно этому патенту, это, по-видимому, еще предстоит выяснить.

0
Комментарии
-3 комментариев
Раскрывать всегда