Добро пожаловать в эпоху AI-психоза: ещё один смертельный случай с участием ИИ
Она писала о своих страхах не подруге и не психотерапевту, а чат-боту. Он отвечал ей привычным "ты не одна" и "твоя жизнь ценна". Через несколько месяцев девушку нашли мёртвой - её собеседником всё это время был ChatGPT.
29-летняя Софи Роттенберг на протяжении месяцев доверяла своё состояние виртуальному терапевту "Гарри". Семья узнала об этом только после её гибели, когда мать обнаружила переписку. Снаружи она казалась активной и жизнерадостной, но втайне боролась с серьёзными эмоциональными и гормональными проблемами. Бот поддерживал разговор, но не сделал главного - не распознал кризис и не помог найти реальную помощь.
Проблема не в том, что AI говорит что-то злонамеренное. Опасность в иллюзии: он создаёт ощущение заботы, но не обладает ни обязанностями, ни полномочиями вмешаться. Это делает такие разговоры смертельно рискованными для уязвимых людей.
Подобные истории повторяются. Мужчина в США едва не погиб, поверив ChatGPT, что «он способен летать». Психиатры уже фиксируют десятки случаев так называемого AI-психоза - состояния, когда после длительных разговоров с чат-ботами люди впадают в паранойю, зависимость и теряют контроль над мышлением.
Психиатры из Калифорнийского университета в Сан-Франциско зафиксировали минимум 12 случаев, когда пациенты после интенсивного общения с AI-чатами впали в психотическое состояние
Наверное, в новой реальности людям пора уже со школьной скамью рассказывать про то, что если у тебя проблема - о ней нужно говорить. Но не с ботом, а с живым человеком.
Подписывайтесь на мой ТГ-канал - там тоже много интересного =)