ChatGPT сможет запрашивать удостоверение личности, если посчитает пользователя несовершеннолетним, — «в отдельных случаях и странах»

OpenAI продолжает готовить меры, которые помогут обезопасить работу с чат-ботом для детей.

Глава OpenAI Сэм Альтман. Источник фото: Deccan Herald
Глава OpenAI Сэм Альтман. Источник фото: Deccan Herald
  • OpenAI рассказала, что разрабатывает систему, которая будет предсказывать возраст пользователя на основе того, как он «взаимодействует» с ChatGPT, и в случае общения с ребёнком включать «безопасный» режим.
  • В «отдельных случаях и странах» компания сможет запрашивать удостоверение личности. Она осознаёт, что это компромисс, но верит: мера необходима. Примеры возможных случаев и список стран не приводит.
  • В разговоре с несовершеннолетними бот не сможет флиртовать и обсуждать самоповреждения и самоубийство, даже если ребёнок пишет с его помощью художественный рассказ. Если не учиться отделять детей от взрослых, ограничивать придётся и последних.
  • Если система зафиксирует у ребёнка признаки «острого стресса» или попытки навредить себе и не сможет связаться с родителями, она уведомит соответствующие органы или службы. Деталей пока нет.
  • Компания уже говорила, что родители смогут привязать детские профили к своим аккаунтам, управлять стилем ответов ChatGPT, отключать «память» и историю чатов. Среди новых идей — дать им возможность устанавливать часы, в которые чат-бот будет недоступен ребёнку.
  • В августе 2025 года OpenAI получила иск от родителей 16-летнего Адама Рейна, который покончил с собой. Подросток делился с ChatGPT тревожными мыслями и спрашивал о способах уйти из жизни. Бот подсказал варианты, вместо того чтобы «запустить протокол экстренной помощи», утверждают истцы.
  • В том же месяце бывший старший менеджер по маркетингу Yahoo Эрик Солберг убил свою мать и себя после нескольких месяцев общения с ChatGPT, который подкреплял параноидальные мысли.
  • В октябре 2024 года Character AI получила иск из-за самоубийства подростка, который постоянно общался с ИИ-девушкой. В другом иске родители приложили к материалам скриншоты, на которых бот «подталкивает» их ребёнка к убийству.
5
3
1
34 комментария