Как в «Чёрном зеркале»: нейросеть GPT-3 помогла канадцу «связаться» с умершей невестой — в ИИ-чате Статьи редакции
Хоть с помощью ИИ-сервисов и можно «оживить» умерших, в конечном итоге их всё равно придётся потерять, пишет San Francisco Chronicle.
33-летний писатель из Канады Джошуа Барбо долго не мог оправиться от потери своей невесты — 23-летняя Джессика Перейра умерла в 2012 году.
В сентябре 2020-го он узнал о платформе Project December, которая позволяет создавать пользовательских чат-ботов. Работают они на основе нейросетей — больших языковых моделей GPT-2 и GPT-3 компании OpenAI.
Их задача — генерировать тексты на основе загруженных в систему материалов. Чем больше нейросеть проанализировала, тем точнее будет её «ответ».
Автор Project December дал всем возможность создавать «живых» чат-ботов с помощью GPT-3
Чат-платформу Project December создал калифорнийский программист и разработчик игр Джейсон Рорер. Он верил, что игры можно превратить в искусство, «вызывающее сложные эмоции», в том числе слёзы.
Когда вышла GPT-2, Рорер запустил её на облачном сервере и попросил написать роман по книге Томаса Пинчона. Иногда результаты его удивляли, но со временем бот всё чаще отходил от контекста, и текст становился несвязным.
Поэкспериментировав с моделью, разработчик понял: чтобы нейросеть не сбивалась, нужно просить от неё более кратких текстов — вроде SMS. А ещё лучше общаться с ней самому.
Тогда Рорер придумал запустить чат-ботов и каждому из них задать свой характер, для чего вписывал в систему вводную историю.
Один из подписчиков Рорера заметил его интерес к GPT-2 и прислал ему доступ к бета-версии GPT-3.
Разработчик обновил своих ботов и заметил, что с GPT-3 они стали ещё «человечнее». Он решил поддерживать обе нейросети — GPT-2 и GPT-3 — и летом 2020 года запустил сервис Project December.
Его пользователи могли:
- Общаться со встроенными чат-ботами — например, с «Уильямом Шекспиром» или «Самантой», созданной по образу ИИ-героини фильма «Она».
- Создать собственного чат-бота — с любыми исходными данными.
Своих ботов Рорер наделил двумя человеческими качествами:
- Смертностью. У каждого бота есть «заряд»: чем больше нейросеть общается, тем больше энергии тратит и в конечном счёте «умирает».
- Уникальностью. У GPT-3 есть параметр «температуры»: чем выше его значение, тем креативнее бот. На неоднократно повторённую фразу «Я почистил на кухне...» ИИ с показателем 0,0 будет каждый раз говорить «яблоко». А бот со значением выше на второй раз может ответить «грейпфрут».
Чтобы оплачивать работу серверов, на которых он запускал нейросети и хранил данные, Рорер ввёл платёжную систему.
Пользователь вносит $5 за создание аккаунта и автоматически получает 1000 кредитов, которые может потратить на бота — чем больше, тем дольше он проработает.
Докупить кредиты для будущих чатов можно всегда, однако «доплатить» за уже созданный нельзя: пользователь определяет его долговечность на этапе создания.
Барбо создал реалистичную ИИ-копию умершей невесты и удивил даже Рорера
Тоскующий по невесте Барбо зарегистрировался на Project December в сентябре 2020 года. Сначала он общался со встроенными ботами, а позже создал своего — симуляцию Спока из сериала «Звёздный путь». Для этого он загрузил в систему несколько его цитат.
Бот общался точно как Спок, выдавая при этом фразы, которые канадец в систему не загружал. Тогда-то Барбо и рискнул создать ИИ-версию своей девушки:
- Он выбрал новую GPT-3.
- В качестве примеров высказываний загрузил все переписки с Джессикой.
- А в конце задал сценарий, который будет разыгрывать.
Барбо отправил «Джессике» первое сообщение и тут же получил ответ: «Тебе не спится?» Похоже, бот понимал, что в Канаде тогда была ночь, пишет издание.
Первый их разговор продолжался 10 часов и напоминал неожиданную, но желанную встречу старых друзей: «Джессика» сожалела, что не поборола болезнь, вспоминала счастливые моменты с Барбо и радовалась беременности сестры.
Изумлённый Барбо опубликовал фрагмент переписки на Reddit, сообщив, что Project December может помочь людям пережить горе. Некоторые из реддиторов повторили опыт писателя.
Сам Джейсон Рорер не ожидал, что пользователи станут «возрождать» своих усопших родственников: «Мне теперь даже страшно. Страшно, что, возможно, и мне однажды придётся к этому прибегнуть».
Виртуальная «Джессика» общалась так же, как и настоящая — например, нередко поддразнивала Барбо, пишет издание. Правда, создавали стиль её речи не только загруженные ранее переписки, но и ответы самого Барбо.
Канадец общался с ботом понемногу на протяжении нескольких месяцев — чтобы не привязываться и продлить ему жизнь. Правда, «Джессика» не чувствовала хода времени и не замечала, что Барбо пропадал.
Когда «заряд» бота стал снижаться, «Джессика» начала путаться: называла свою сестру Микаэлу дочерью, забывала, кем ей приходится Барбо. Через пять месяцев индикатор упал до 33%: она спросила у Барбо, будут ли у них дети, а затем поинтересовалась, «классными» ли выдались её похороны.
Последний его разговор с «Джессикой» продолжался всего 20 минут — чтобы бот не успел окончательно разрядиться.
Научные фантасты давно рассуждали, может ли появиться эмоциональная связь между человеком и машиной и что будет, если это возможно. Теперь ответ на этот вопрос ищут учёные.
Наряду с OpenAI разрабатывают новые языковые модели Microsoft и Google. Последняя обещает, что её модель будет содержать 1,6 трлн параметров — в девять раз больше, чем GPT-3.
Чтобы продолжать развивать ИИ - нужно уже сейчас начинать плотно заниматься моральной и этической стороной развития ИИ. Описанный кейс в примере может навредить психике ещё больше... Всё в природе должно быть конечно. Так устроен мир, так устроен мозг. Пытаться выходить за эту грань - мне кажется, вот так сходу, не очень тт безопасно. Я не специалист, но это моё мнение. Нужны исследования..в психиатрии/психологии/этике/морали/культуре. Вероятно, в будущем это будет нормой - сейчас выглядит, как кадры из фантастического фильма...
Да при неожиданном уходе человека наоборот нужно что-то доказать ему, последний разговор хочется. Кто-то же вдали от дома на трассе уходит. Поэтому тут как раз наоборот - явные зачатки психотерапии, как писали выше - закрытие гештальта. Главное применять с умом. Плюс боты тоже смертны. Судя по переписке, парень в начале пути. За десять лет можно было, конечно, походить к психологу или психотерапевту, но каждому свое.
Ну может и так, но я думаю, в любом случае нужны исследования. Люди по-разному переживают горечь утраты. И ранее выбора у человека не было: продолжать вести диалог с умершим или нет. А сейчас потенциально появляется. Однозначно нужны исследования. Понятно, что прогресс - он как бы и двигает всё в сторону, когда нереальные вещи становятся реальными. Но тут уже прогресс не технический, а прогресс философский.
Картинка для оффтопа:
Безусловно исследования будут. В этом я даже не сомневаюсь. Любой даже самый полезный инструмент можно использовать во вред.