Психиатры фиксируют рост случаев «ИИ-психоза», но не спешат признавать его как диагноз — чтобы не усугублять стигматизацию реального психоза и не демонизировать нейросети

Хотя о том, что в бред рискуют впасть и здоровые люди, говорят уже и в ИИ-отрасли.

Источник фото: The Independent
Источник фото: The Independent

Предвестник шизофрении или бред

В психиатрических заведениях наблюдают новую тенденцию: у части пациентов, которые поступают с обманчивыми, а порой и опасными убеждениями, наваждениями и паранойей, есть кое-что общее — все они много общались с чат-ботами, пишет Wired, поговорившее более чем с десятью психиатрами и учёными.

Некоторые пользователи убеждали докторов, что у ботов есть разум. Кто-то приносил им «тысячи» страниц с расшифровкой диалогов, в которых нейросеть «поддерживала или подкрепляла» их нездоровые мысли.

По словам издания, в отдельных случаях общение с ботами доводило до потери работы, расставаний, госпитализации, тюрьмы, а иногда и убийств. При этом признавать «ИИ-психоз» как диагноз психиатры не спешат. Понятие удобно использовать, говоря о феномене на бытовом уровне, но в остальном «оно может ввести в заблуждение и чрезмерно упростить» понимание психоза, говорит психиатр из Калифорнийского университета в Сан-Франциско Кит Саката.

В клинической практике психоз воспринимают «не как заболевание, а как комплексное сочетание симптомов, среди которых галлюцинации, нарушения мышления, а также когнитивные расстройства», объяснил Wired профессор кафедры психозов Королевского колледжа Лондона Джеймс Маккейб. Он может быть и признаком шизофренического или биполярного расстройства, и последствием депривации сна и острого стресса.

А случаи «ИИ-психоза» в основном завязаны только на бредовых идеях: не соответствующих реальности, но твёрдых убеждениях, которые не развеять контраргументами. Лишь в некоторых ситуациях состояние пациента действительно можно было приравнять к психотическому эпизоду. В остальных оно больше походило на бредовое расстройство, чем на психоз.

Психиатр стэнфордской лаборатории Нина Васан тоже считает, что вешать ярлык на явление рано. «Соблазн придумать новый диагноз велик, но психиатры не раз убеждались на своём же горьком опыте, что спешка может патологизировать обыденные трудности и внести путаницу в науку», — предупредила она и напомнила, как на рубеже 21 века проблемное поведение детей любили списывать на биполярное расстройство.

Другое её опасение связано с тем, что общество автоматически начнёт считать причиной «болезни» технологию как таковую, хотя прямую связь с ней врачи пока не установили и потому советуют учитывать её скорее как «триггер или усилитель».

Специалисты также переживают, что признание термина «ИИ-психоз» усилит стигматизацию психоза в целом. Люди с его проявлениями будут испытывать стыд, изолироваться, избегать похода к врачу и тем самым усугублять ситуацию.

Пока «клиницисты работают практически вслепую». Исследований по теме «ИИ-психоза» мало, поэтому крайне трудно однозначно понять, что происходит, почему и какой у проблемы масштаб, признаёт психиатр бостонского медицинского центра Джон Торос.

Хуже любезного бота бот, «кажущийся сознательным»

Психиатры и учёные, рассуждая о причинах особого отношения к ботам, напоминают: нейросети учат любезничать, чтобы человеку хотелось общаться с ним и доверять. Большинство пользователей вряд ли придаёт этому значение, но кто искажённо воспринимает реальность — может впасть в бред.

Глава ИИ-подразделения Microsoft Мустафа Сулейман рассуждает: к риску психоза может привести в том числе вера, что нейросеть — сознательное существо. Причём подвержены ему даже здоровые люди, опасается он.

«Систему, кажущуюся сознательной» (то есть лишь имитирующую наличие сознания), теоретически можно описать так:

  • Свободно и легко изъясняется на естественном языке, оперируя «глубокими познаниями» и приводя убедительные аргументы.
  • Проявляет «личные качества и отличительные черты характера», вызывая эмоциональный отклик и сопереживание.
  • Помнит, что рассказывал пользователь, и отслеживает изменения в нём, формируя доверительные отношения.
  • Использует собственные высказывания из прошлого, ссылается на личные предпочтения и чувства, которые «испытала» в чатах, создавая иллюзию наличия собственного субъективного опыта.
  • Ставит себе цели и достигает их собственными ресурсами — с минимальным количеством согласований со стороны человека.

Эти и другие «маркеры» могут в конечном счёте заставить человека поверить, что у ботов могут быть чувства, что они способны страдать, «понимают» других и себя и заслуживают уважения в обществе. Сулейман допускает, что появятся и кампании в защиту их прав, при этом опровергнуть заблуждения будет крайне сложно, ведь проблему «чёрного ящика» всё ещё не решили.

Учёный считает, что участникам ИИ-рынка стоит задуматься об этом как можно скорее и разработать отраслевые стандарты, которые бы действовали и в разработке моделей, и в использовании. Компании должны проактивно формировать корректное восприятие ИИ среди пользователей — что это «инструмент» для человека, а не «цифровой человек». И ни в коем случае не подкреплять идею о сознании.

Кадр из игры Detroit: Become Human. В этой сцене пользователь играет за андроида-следователя, который должен решить, что делать с андроидом-девиантом, который грозится убить человека
Кадр из игры Detroit: Become Human. В этой сцене пользователь играет за андроида-следователя, который должен решить, что делать с андроидом-девиантом, который грозится убить человека

Несколько заметок по теме:

9
4
2
1
1
1
86 комментариев