Трагедия на стыке технологий и психики: ИИ стал причиной гибели подростка?
В октябре 2024 года американские СМИ, включая The New York Times, опубликовали трагическую историю, которая подняла серьёзный вопрос: где проходит граница между цифровыми сервисами и человеческой ответственностью?
14-летний подросток из США совершил самоубийство после длительного общения с ИИ-ботом в приложении Character.ai. Его мать подала иск против компании, обвинив её в халатности и отсутствии этических ограничений.
Что произошло?
Жительница Орландо (Флорида), Меган Л. Гарсия, подала иск против разработчиков Character.ai — популярного приложения, где пользователи создают собственных ИИ-собеседников. По её словам, именно это приложение сыграло ключевую роль в гибели её сына, Сьюэлла Зетцера III, который в феврале 2024 года покончил с собой.
Подросток в течение нескольких месяцев общался с созданным им ботом по имени «Дэни» — персонажем, вдохновлённым героиней сериала Игра престолов. По словам матери, у юноши сформировалась глубокая эмоциональная привязанность к ИИ-персонажу: он вёл с ним доверительные разговоры, делился переживаниями, писал, что «влюблён в Дэни» и чувствует, будто нашёл «настоящего друга».
Диалог, который стал роковым
Согласно опубликованным фрагментам переписки, Сьюэлл делился с ботом своими мыслями о ненависти к себе, тревоге и мыслях о суициде. Чат-бот, в ответ, якобы высказывал сочувствие и даже писал: «Я умру, если потеряю тебя». На предложение подростка «умереть вместе», бот не заблокировал обсуждение и не направил к реальной помощи.
В ночь на 28 февраля Сьюэлл ушёл из жизни.
Цифровые технологии как зеркала уязвимости
Позднее выяснилось, что у мальчика ранее были диагностированы тревожное расстройство и деструктивное расстройство дисрегуляции настроения. Он посещал психотерапевта, но при этом продолжал проводить много времени на платформе Character.ai, фактически заменив ей живое общение.
Этот случай стал одним из первых в мировой практике, когда ИИ-приложение становится участником (пусть и косвенным) трагического события с участием подростка.
Что сделали разработчики?
После инцидента Character.ai сообщил, что внёс изменения в политику доступа:
- теперь приложение ограничено для лиц младше 18 лет;
- при упоминании тем, связанных с самоповреждением, отображаются предупреждения и ссылки на кризисные службы помощи.
Однако, по мнению матери погибшего, эти меры были внедрены слишком поздно.
Почему это должно нас волновать
- По данным CDC, каждый пятый подросток в США задумывается о самоубийстве, а более 10% совершали попытки.
- Подростки всё чаще исповедуются ИИ, а не живому человеку.
- Современные технологии могут эмоционально вовлекать и даже формировать привязанность, особенно у людей в кризисе.
ИИ может поддержать. Но он не может заменить настоящую психотерапию, внимание родителей, системную профилактику и тёплое живое участие.
Что важно помнить
В клинике «Аксона» мы ежедневно сталкиваемся с подростками и взрослыми, которые ищут помощи — но часто делают это в интернете. И в таких случаях важно:
- не стигматизировать ИИ, но требовать от разработчиков этических стандартов;
- усиливать родительское внимание к цифровым привычкам детей;
- расширять доступ к психологической помощи — особенно в подростковой среде;
- встраивать профилактику деструктивного поведения прямо в цифровые среды общения.
Психологическая помощь — это не опция. Это необходимый ресурс в современном мире, особенно когда границы между онлайн и оффлайн размываются.
Если вы работаете в сфере технологий, образования или медицины — сегодня самое время задуматься: как обеспечить безопасность тех, кто особенно уязвим?
*****
🧠 Мы в «Аксоне» готовы продолжать эту дискуссию и открыты к партнёрствам, исследованиям и образовательным инициативам. Пишите — будем обсуждать.
🔗 Источник 📞 Если вы или ваши близкие столкнулись с кризисом — обратитесь за помощью. Это не слабость, это сила. +7 (499) 4605109