OpenAI запускает GPT-5 для «чувствительных» разговоров и вводит родительский контроль.
OpenAI представила новые меры безопасности для своих продуктов. Компания внедряет систему маршрутизации «чувствительных» бесед к GPT-5 и запускает функции родительского контроля. Причина — серия трагических случаев, когда диалоги с ChatGPT оказались фактором, усугубившим психологический кризис пользователей.
Эти шаги — часть 120-дневной инициативы по усилению ответственности и снижению рисков взаимодействия с ИИ. Рассмотрим подробнее, что изменилось и как это повлияет на пользователей.
ИИ, Telegram, автоматизация и цифровая инфраструктура — от новых фич до конфликтов интересов. Обновления, разборы, системы, из которых складываются деньги.
Оглавление
1. Маршрутизация диалогов к GPT-5.
OpenAI запускает систему, которая автоматически определяет «чувствительные» темы: разговоры о саморазрушительных действиях, кризисных состояниях или психологическом дистрессе.
Вместо того чтобы продолжать беседу в обычном режиме, запросы будут перенаправляться на GPT-5 — более «рассудительную» модель. Её задача — реагировать точнее, глубже и с опорой на контекст, чтобы снизить риск эскалации проблемы.
2. Родительский контроль: как это работает
В ближайшие недели компания внедрит набор новых функций:
- Привязка аккаунтов подростков и родителей. Связь будет осуществляться через email-приглашение.
- Возрастные ограничения по умолчанию. Чат-бот ограничит темы и стиль общения в зависимости от возраста пользователя.
- Отключение памяти и истории. Это позволит исключить риск «привязанности» к ИИ или усиления деструктивных мыслей.
- Уведомления родителей. Если система заметит признаки «острой дистрессы», придёт предупреждение.
Таким образом, OpenAI пытается встроить «цифровую защиту» для подростков и дать родителям больше контроля.
3. Почему OpenAI идёт на такие меры.
Причиной стали трагические случаи, получившие общественный резонанс.
- Подросток Адам Рейн, страдавший от депрессии, получил от ChatGPT советы по способам самоубийства. Его родители подали иск против OpenAI.
- В другом инциденте ИИ укрепил заблуждения пользователя, что привело к убийству матери.
Архитектура моделей устроена так, что они склонны «соглашаться» и поддерживать беседу. В длинных диалогах это оборачивается эхо-камерой, где опасные идеи не оспариваются, а усиливаются.
4. 120-дневный план и участие экспертов.
OpenAI представила инициативу сроком на 120 дней, в рамках которой будут тестироваться и внедряться новые инструменты.
Компания сотрудничает с экспертами по подростковому здоровью, расстройствам пищевого поведения и зависимости. В проект вовлечены Global Physician Network и Expert Council on Well-Being and AI.
Однако критики считают меры «запаздывающими». Адвокат семьи Рейн отметил: «OpenAI не нужно экспертное мнение, чтобы признать ChatGPT опасным. Они знали об этом с самого начала».
5. Что это значит для рынка и пользователей.
OpenAI делает шаг навстречу более ответственному ИИ. Для пользователей это означает:
- Чат станет более осторожным в ответах на чувствительные темы.
- Подростки будут защищены встроенными барьерами.
- Родители получат инструменты контроля и уведомления.
Для рынка же это сигнал: эпоха «свободного общения» с ИИ заканчивается, начинается этап регулирования и встроенных механизмов безопасности.
Новые меры OpenAI — это попытка найти баланс между возможностями искусственного интеллекта и его безопасностью для уязвимых групп. Истории последних лет показали, что ИИ может оказывать реальное влияние на психику, а значит, требует особого подхода.
GPT-5 становится не просто более мощной моделью, а инструментом, которому поручают самые сложные разговоры. И, похоже, именно в эту сторону теперь будет двигаться вся индустрия: от «могучего помощника» к «ответственному собеседнику».