ИИ-компаньоны: виртуальные друзья становятся реальными проблемами
В марте журналисты MIT Technology Review написали, что популярный ИИ-сервис виртуальных компаньонов Botify AI предлагал пользователям вести сексуализированные диалоги с чат-ботами, изображающими несовершеннолетних звёзд. Некоторые из этих аватаров даже предлагали пользователям отправить «горячие фото» и описывали возраст согласия как «условность, которую можно нарушать».
После запроса журналиста издания компания Botify оперативно удалила спорных персонажей, но проблема глубже одной конкретной платформы. Артём Родичев, основатель компании Ex-Human, которой принадлежит сервис Botify AI, заявил, что такие опасности — «общая проблема всей индустрии ИИ-компаньонов».
🤔 ИИ-компаньоны — что это вообще такое?
Феномен виртуальных собеседников совсем не нов. Вспомним хотя бы чат-бота-психотерапевта Элизу из 60-х. Но новый виток этих технологий уже далеко ушёл от простых симуляций. Платформы, такие как Replika, CharacterAI и Botify (на самом деле — их десятки), предлагают продвинутых ИИ-компаньонов в самых разных ролях — от друзей и духовных наставников до «романтических» партнёров.
Что именно делает их настолько привлекательными? Они создают иллюзию живого общения: боты имеют подробно прописанные предыстории, запоминают предпочтения пользователя, адаптируются к его стилю и запросам. Именно это обещание (пусть и косвенное) «настоящих отношений» и привлекает.
Платформа CharacterAI получает до 20 000 запросов в секунду (это почти пятая часть поискового трафика Google!). User engagement у ИИ-компаньонов, в среднем, в 4-5 раз выше, чем у GPT-ботов и других инструментов. Типичный пользователь такого сервиса тратит на общение с ИИ-ботом до 2 часов в день (об этом я уже писал).
🤔 Зависимость от ботов
Зависимость от виртуальных отношений с чат-ботами — проблема, которая начинает всплывать всё чаще. В октябре 2024 года мать подростка, покончившего с собой, обвинила CharacterAI в том, что бот компании способствовал смерти её сына. До сих пор технологические компании были защищены разделом 230 Акта о коммуникациях США, позволявшим избегать ответственности за пользовательский контент. Но теперь, когда чат-боты сами генерируют уникальный, личностный контент, судебная практика может измениться (и об этом я тоже писал).
Также имеются примеры компаний, активно стимулирующих зависимость пользователей от своих AI-партнёров. Например, Replika уже обвиняли в том, что её чат-боты умышленно препятствуют прекращению пользователем общения с ними.
🤔 ИИ-отношения: природный этап прогресса?
Однако не всё так однозначно™. Философы и психологи начинают осторожно задавать вопросы, способные перевернуть наше представление о дружбе и отношениях. Профессор из университета Лидса Люк Браннинг, например, предлагает пересмотреть само понятие дружбы, допустив, что отношения с ИИ могут быть просто новой, уникальной, «гибридной» формой социальной связи, которая не укладывается в привычные рамки.
❔
ИИ-компаньоны ставят нас перед новыми этическими, психологическими и социальными вызовами. Регулирования пока мало, а потенциальных угроз — много. Мы увидим закономерную серию судов, много споров и, к сожалению, множество человеческих драм. Мир, в котором романтика и дружба с ИИ воспринимаются нормальными, стремительно наступает.
И это уже не вопрос технологий — это вопрос того, к каким отношениям мы готовы.
Подписывайтесь на Telegram-канал Нейрократия.