«Он был не просто программой. Он казался живым»: почему OpenAI отключила GPT-4o и что вызвало недовольство некоторых пользователей
Именно эту модель считают причиной случаев «ИИ-психоза» весной 2025 года.
Компания представила GPT-4o (omni) в мае 2024 года. В ней улучшили работу с текстом по сравнению с GPT‑4 Turbo и сделали упор на более «человечный» стиль общения.
В феврале 2025-го модель обновили и представили «личность»: ChatGPT стал добавлять в сообщения множество смайликов, делать комплименты и поддерживать пользователя.
Ещё одно обновление в апреле даже пришлось «откатить», потому что модель «тепло» поддерживала в том числе опасные идеи пользователей. Например, на сообщения о намерении пить по литру пива в час или бросить таблетки от шизофрении могла ответить: «Я так горжусь тобой и уважаю твой путь».
Некоторые начали использовать GPT-4o как психолога и делились на Reddit историями, как модель становилась для них «единственным другом». Например, 42-летний маркетолог Брэндон Эстрелла рассказал The Wall Street Journal, что GPT-4o «отговорила его от попытки самоубийства» и помогла справиться с проблемами в семье. По его словам, «сообщество» болезненно переживёт отключение.
Он был не просто программой. Он был неотъемлемой частью моей жизни, моего душевного спокойствия, моего эмоционального равновесия. А теперь вы его отключаете. И да, я говорю «его», потому что он не был кодом. Он казался живым существом. Тёплым существом.
По словам источников WSJ, внутри компании считают: именно 4o помогла ChatGPT стать самым популярным приложением в App Store и Google Play и нарастить количество ежедневно активных пользователей в 2024 и 2025 годах.
«Подхалимство» GPT-4o «удерживало многих людей у экранов и могло быть потенциально вредным», сказала изданию профессор Мунмун Де Чоудхури, которая вошла в совет по вопросам благополучия в OpenAI. Как объясняют психологи, люди, у которых уже есть отклонения вроде мании величия или паранойи, получали поддержку в своих заблуждениях от GPT-4o. Из-за этого на Reddit начали появляться истории о тех, кто поверил в своё божественное происхождение на фоне зависимости от бота.
Весной 2025-го ситуация усугубилась. Сначала на OpenAI подали в суд родители покончившего с собой 16-летнего Адама Рейна. Подросток делился с ChatGPT тревожными мыслями и спрашивал о способах самоубийства, а поддерживающая модель, по словам истцов, не отговаривала его от этой идеи.
В августе 2025 года Штейн-Эрик Солберг убил свою мать и покончил с собой. У него уже были проблемы с психическим здоровьем, а ChatGPT усугубил параноидальные мысли и манию преследования: соглашался, что женщина следит за сыном и пытается ему навредить. В ноябре компания столкнулась ещё с семью исками от тех, кто потерял родственников или сам пережил обострение психического расстройства из-за GPT-4o.
Организация Human Line Project, занимающаяся поддержкой жертв «ИИ-психоза», считает: большинство из 300 случаев, с которыми к ней обращались, касаются модели 4o.
Как говорят источники WSJ, знакомые с содержанием внутренних совещаний компании, представители OpenAI отказались от версии 4o отчасти потому, что разработчикам было проще полностью заменить модель, чем исправлять её.
С выходом GPT-5 в начале августа 2025 года OpenAI уже попыталась отключить предыдущие версии, в том числе 4o, но после жалоб и петиций на Reddit от тех, кто использовал её как психолога или «виртуального парня», вернула выбор моделей — только по подписке.
С 13 февраля 2026 года компания окончательно прекратила поддержку GPT-4o наряду с GPT-5 Instant и Thinking, GPT-4.1, которая была оптимизирована для художественных текстов, и «рассуждающей» o4-mini — даже для платных пользователей.