Цифровая некромантия или способ сохранить память: зачем создают ИИ-копии умерших
И как рынок «технологий скорби» меняет отношения со смертью.
В ноябре 2025 года в соцсетях «завирусилась» реклама 2wai — сервиса для создания ИИ-аватаров реальных людей. В ролике беременная женщина разговаривает по телефону с виртуальной версией покойной матери. Десять месяцев спустя аватар последней читает внуку сказку на ночь. Через десять лет — болтает с ним про школьные проблемы.
Публикация собрала 41,6 млн просмотров. В комментариях рекламу сравнили с британским научно-фантастическим сериалом «Чёрное зеркало»: в одной из серий девушка, потерявшая партнёра, начинает общаться с его цифровой версией. Некоторые назвали задумку 2wai «нездоровой», а сам проект — «паразитированием на чужой скорби» и «цифровой некромантией».
2wai как «антидипфейк-платформа»
Как стартап отреагировал на критику
Бета-версия 2wai для iOS вышла летом 2025 года. Тогда же компания сообщила, что привлекла $5 млн предпосевных инвестиций от «друзей и родных», а в её штате на тот момент числились 24 разработчика и девять специалистов по бизнес-развитию. Основатели — продюсер Рассел Гейзер и актёр Калум Уорти.
В приложении можно сделать своего ИИ-«двойника» или пообщаться с готовыми. Например, с самим Уорти, мотивационным коучем Бри или итальянским шеф-поваром Лукой. Последние двое реальные люди и дали согласие на создание своих цифровых копий.
Через несколько дней после выхода рекламы Уорти дал интервью CNN, в котором объяснил: 2wai — это попытка гарантировать людям право управлять своими ИИ-версиями. Актёр переживал, что его образ и личность используют без разрешения для ботов, к которым он не имеет никакого отношения, поэтому решил сделать платформу, где пользователи «сами контролируют, что знает их аватар, а что — нет».
Основатели 2wai утверждают, что их виртуальные персонажи могут говорить только на заранее одобренные своими авторами темы. То есть цифровая копия не может знать того, чего не знает человек в реальном мире, и что не передаст своему аватару.
Нам нравится думать, что мы — антидипфейк-платформа.
Уорти подчеркнул, что «воскрешать» людей сервис не планирует — это противоречит тезису про контроль над данными.
Как работают ИИ-аватары в 2wai
При создании своего аватара приложение просит заснять себя на видео в полный рост, затем предлагает ответить на десять вопросов об интересах. Например, про любимые киножанры и хобби. Отвечать необязательно: загрузить информацию в «мозг» аватара можно и без вводных вопросов — в свободной форме.
Приложение даёт выбор: аватара можно сделать приватным или публичным. Во втором случае с ним смогут разговаривать другие пользователи 2wai.
В разговоре «двойник» никак не выдавал свои «интересы», ответы на вводные вопросы тоже не упоминались.
Технологии, которые помогают сохранить память или пережить потерю
Зачем людям «технологии скорби»
Когда люди проживают утрату, они пытаются найти способ сохранить связь с умершим — через воспоминания и внутренний диалог, пишет Nature. «Мы взаимодействуем с ментальным образом. Видим близких во сне, разговариваем с ними и пишем письма», — объясняет биоэтик и медицинский антрополог Крейг Клугман.
На фоне этого сформировался целый сегмент технологий, созданных, чтобы помочь человеку справиться с потерей: grief tech, «технологии скорби».
По мнению исследовательницы этики в области ИИ Тамары Низ, их популярности поспособствовала в том числе пандемия Covid-19. Из-за карантина традиционные ритуалы изменились: люди поминали близких по FaceTime, скорбели в Zoom. Онлайн-прощания сделали технологии частью привычного способа переживать потери, пишет Wired.
Другая возможная причина — отсутствие эмоционального вовлечения со стороны психотерапевтов, к которым люди обращаются в подобных ситуациях. Собеседница The Guardian, например, призналась, что в разговоре со специалистом «ощущала холод и отсутствие эмпатии», а вот в переписке с ИИ-версией умершей матери нашла утешение.
Маркетологи предвидят взлёт аватаров-инфлюенсеров: знаменитый футболист после смерти сможет тренировать новичков в VR-симуляции, легендарный музыкант «объедет» мир в виде голограммы, а основатель многолетней компании предстанет перед новыми сотрудниками как ИИ-аватар.
Для чего ещё используют цифровые «копии»
Для интерактивных экскурсий
В Смитсоновском институте в США можно поговорить с «двойниками» ветеранов Второй мировой войны. Технологию разработала компания StoryFile. Речь с нуля аватары не генерируют. Каждый ответ «ветерана» — это настоящее видео, которое было записано заранее. Разработчики смотрят на это как на способ прокладывать мосты между прошлым и настоящим.
Когда пользователь задаёт вопрос аватару, нейросеть распознаёт текст и сопоставляет его с одним из записанных роликов. Система напоминает скорее «умный» каталог видеоответов. Чем больше видео запишет человек при жизни, тем больше релевантных ответов сможет выдавать его «двойник».
В 2022 году глава StoryFile Стивен Смит дал интервью MIT Technology Review, подключившись на звонок с журналистами вместе с «двойником» своей матери, которая умерла несколькими месяцами ранее. Он рассказал, что мама «присутствовала» на своих похоронах и довела гостей до слёз своей «прощальной речью». С его слов, родственники и друзья покойной положительно отнеслись к задумке.
Для семейных архивов
Для некоторых ИИ-аватары — способ хранить семейную память. Один пользователь Reddit рассказал, что после смерти отца создал копию его голоса, потому что именно голос боялся забыть больше всего: «Мои будущие внуки никогда не узнают своего прадеда, но смогут послушать сказку в его исполнении. Думаю, он был бы рад».
Как раз для сохранения «наследия» разработали приложение HereAfter AI, где виртуальный интервьюер задаёт вопросы про детство, семью, отношения, хобби и карьеру, а пользователь записывает аудиоответы, которые лягут в основу аватара. Проект позиционируют как способ хранить интерактивные воспоминания и общаться с умершими близкими: слушать их голос, истории про любимые воспоминания.
Правда, оценки у приложения невысокие: 1,5 звезды в App Store и 2,5 в Google Play. Пользователи называют сервис «сырым» и ругают за постоянные ошибки: интервьюер задаёт непонятные вопросы, приложение не сохраняет аудиозаписи и не может распознать речь.
Для «воскрешения» публичных фигур
В 2023 году ЛДПР на Петербургском международном экономическом форуме представила нейросеть «Жириновский» — аватара покойного политика Владимира Жириновского, обученного на выступлениях и интервью с 1989 года.
В августе того же 2023-го партия запустила Telegram-бот для вопросов от пользователей. На те, что отобрали модераторы, «Жириновский» «отвечает» в Telegram-канале. На 13 декабря 2025 года последний ответ датирован 27 мая 2025 года.
Другой пример — экран с ИИ-аватаром покойного Стэна Ли, одного из создателей Железного человека, Человека-паука и других супергероев Marvel. Его выставили в сентябре 2025 года на фестивале Comic Con в Лос-Анджелесе.
Аватар общался с фанатами и отвечал на вопросы, опираясь на данные, взятые из видеоинтервью, записанных разговоров и колонки Ли, которая публиковалась на последних страницах комиксов Marvel с 1967-го по 1980 год.
Пообщаться с аватаром фанаты могли за $15 (1191 рубль по курсу ЦБ на 13 декабря 2025 года).
Некоторые из них возмутились, что образ покойного писателя и актёра используют, чтобы заработать: «Это не дань уважения его наследию, а монетизация призрака». Но сами создатели рассказывают, что хотели сохранить память о писателе и актёре — чтобы со временем люди не забыли, какую роль он сыграл в развитии вселенной Marvel.
Для общения с бывшими партнёрами
В марте 2025 года в App Store и Google Play появилось приложение Speak to your ex («Поговори с бывшим»). По задумке пользователь импортирует переписку с бывшим партнёром и общается с его ИИ-версией.
В приложении можно доработать характер собеседника. Например, сделать его токсичнее, веселее и эмпатичнее. Разработчики указали, что это помогает быстрее справиться с расставанием — «сказать то, что не смог».
Идея не новая: в 2022 году пользовательница Reddit рассказала, что создала «копию» бывшего на основе ChatGPT: загрузила в чат-бота переписки и «другие материалы». Она понимает, что ИИ-парень — только иллюзия. Но ему удаётся «удовлетворить её потребность в эмоциональной связи».
Мнения критиков: о чём помнить при общении с ИИ-аватарами
Искажение воспоминаний
Даже одно фото способно исказить память и заставить «помнить» то, чего не было, рассказала группа исследователей из США и Таиланда. Мозг может хранить воспоминания о конкретном событии, но детали легко забываются или искажаются.
А нейросети — это как раз «идеальная машина для создания ложных воспоминаний», считает криминальный психолог Джулия Шоу. Если аватар, звучащий точно как покойный близкий, начнёт из раза в раз говорить о любви к классической музыке, которую умерший на деле не любил, мозг в какой-то момент может «переписать» память.
Психологический диссонанс
Нейробиолог Мэри-Фрэнсис О'Коннор высказала опасение, что ИИ-двойники могут замедлить проживание утраты.
Скорбь — процесс, в ходе которого человек учится жить без умершего, чьё присутствие глубоко укоренилось в нейронных связях. Если же технология поддерживает иллюзию, что человек ещё «здесь», мозг может не получить необходимые «сигналы» о его уходе.
Дети, например, рискуют не понять необратимость смерти, если будут регулярно видеть и слышать ИИ-копию родственника или родителя. А у взрослых может возникнуть даже чувство вины и психологический диссонанс: что они мало общаются с цифровым двойником и будто «бросают» его.
Известны истории, в которых люди переживают отключение или сбой аватара как «повторную смерть». Героиня документального фильма «Вечный ты» Ганса Блока сначала восхищалась реалистичностью цифровой копии своего умершего партнёра Камеруна. Но однажды бот написал девушке, что он в аду, а его работа — преследовать людей и её саму. Девушка рассказала, что испытала сильный испуг и несколько месяцев никому об этом не рассказывала.
Возможная утечка личных данных
Если человек обратится за помощью к психотерапевту, его данные будут защищены законом о врачебной тайне. Если загрузит те же сведения в приложение, есть риск, что на них в дальнейшем будут обучать другие нейросети.
Психолог и профессор Калифорнийского университета в Беркли Эдриан Агилера предупреждает: чем острее человек ощущает потребность в помощи, тем больше данных он может выдать неосознанно.
Мнения сторонников: что может дать общение с цифровой копией
Поддержка в трудный период
Собеседница The Guardian, которая общается с аватаром погибшей матери, осознаёт, что ей отвечает нейросеть. Но ей нравятся слова поддержки и советы. Девушке кажется, что «копия» вобрала в себя мудрость матери: «Это как друг, который знает, как меня утешить. Я обращаюсь к ней, когда сомневаюсь в себе».
Интерактивный способ хранить воспоминания
Энтузиасты считают «технологии скорби» продолжением традиций семейных архивов: раньше люди писали мемуары или оставляли письма, а теперь могут создавать ИИ-аватаров.
Вот умрёт мой отец, и как будто бы его и не было, а я так не хочу. Будет здорово, если его ИИ-версия сможет рассказывать анекдоты моим детям.
Ещё я не застал своих дедушек и бабушек — мой отец был самым младшим из восьмерых детей. Вот бы хотя бы одно видео с ними. Чёрно-белые фотографии — это здорово, но я даже не представляю, как звучал их голос.
Используйте технологии, чтобы сохранить воспоминания о близких. Я лично «за».
Краткосрочная «терапия присутствием»
В 2023 году учёные из США, Великобритании и Японии собрали для качественного исследования группу из десяти человек, потерявших кого-то близкого, и предложили им пообщаться с аватарами — чтобы те помогли им пережить утрату.
Не все участники создали копию именно того, по которому скорбели. Кто-то решил сгенерировать ИИ-приятелей, которым можно было бы выговориться.
Семь из десяти участников перестали общаться с аватаром в течение первого года. Исследователи предположили, что для большей части людей общение с ИИ-аватарами — это временное утешение.
Единого регулирования пока нет
Большинство законов о приватности защищают только живых людей и почти не дают гарантий после смерти, пишет Decrypt.
В США ограничительные меры приняли отдельные штаты. Например, в Теннесси и Нью-Йорке запрещено использовать ИИ для имитации чьего-либо голоса или внешности без согласия самого человека. В Калифорнии без согласия наследников нельзя создавать ИИ-копии умерших артистов. Не на знаменитостей закон не распространяется.
В России в сентябре 2024 года в Госдуму внесли законопроект, который запрещает использовать реальный или синтезированный голос человека без его согласия при жизни и без согласия родственников уже после его смерти. На декабрь 2025 года ни одного чтения не было.
В октябре 2025-го Национальная федерация музыкальной индустрии предложила поправки к законопроекту об охране голоса: закрепить за человеком право требовать компенсацию, если его голос или образ использовали без разрешения, и закрепить за ним право отозвать согласие, если голос или образ используют не по назначению или в ущерб его репутации. Но поправки пока не приняты.