ChatGPT сможет запрашивать удостоверение личности, если посчитает пользователя несовершеннолетним, — «в отдельных случаях и странах»
OpenAI продолжает готовить меры, которые помогут обезопасить работу с чат-ботом для детей.
Глава OpenAI Сэм Альтман. Источник фото: Deccan Herald
- OpenAI рассказала, что разрабатывает систему, которая будет предсказывать возраст пользователя на основе того, как он «взаимодействует» с ChatGPT, и в случае общения с ребёнком включать «безопасный» режим.
- В «отдельных случаях и странах» компания сможет запрашивать удостоверение личности. Она осознаёт, что это компромисс, но верит: мера необходима. Примеры возможных случаев и список стран не приводит.
- В разговоре с несовершеннолетними бот не сможет флиртовать и обсуждать самоповреждения и самоубийство, даже если ребёнок пишет с его помощью художественный рассказ. Если не учиться отделять детей от взрослых, ограничивать придётся и последних.
- Если система зафиксирует у ребёнка признаки «острого стресса» или попытки навредить себе и не сможет связаться с родителями, она уведомит соответствующие органы или службы. Деталей пока нет.
- Компания уже говорила, что родители смогут привязать детские профили к своим аккаунтам, управлять стилем ответов ChatGPT, отключать «память» и историю чатов. Среди новых идей — дать им возможность устанавливать часы, в которые чат-бот будет недоступен ребёнку.
- В августе 2025 года OpenAI получила иск от родителей 16-летнего Адама Рейна, который покончил с собой. Подросток делился с ChatGPT тревожными мыслями и спрашивал о способах уйти из жизни. Бот подсказал варианты, вместо того чтобы «запустить протокол экстренной помощи», утверждают истцы.
- В том же месяце бывший старший менеджер по маркетингу Yahoo Эрик Солберг убил свою мать и себя после нескольких месяцев общения с ChatGPT, который подкреплял параноидальные мысли.
- В октябре 2024 года Character AI получила иск из-за самоубийства подростка, который постоянно общался с ИИ-девушкой. В другом иске родители приложили к материалам скриншоты, на которых бот «подталкивает» их ребёнка к убийству.
34 комментария