Прокуроры США потребовали от Microsoft, OpenAI, Google и других компаний усилить меры безопасности при работе с ИИ — из-за случаев суицида, психозов и убийств
По их мнению, часть фирм уже нарушила закон.
Источник: Getty Images
- Национальная ассоциация генеральных прокуроров США направила письмо 13 компаниям — Microsoft, OpenAI, Google, Apple, Anthropic, запрещённой в России Meta, Character AI, Chai AI, Replika, xAI, Nomi AI, Perplexity и Luka.
- Прокуроры выразили «обеспокоенность» количеством «льстивых и бредовых» ответов, которые выдают чат-боты. В связи с этим, а также из-за роста сообщений о взаимодействии ИИ с детьми, они предлагают компаниям усилить меры безопасности.
- В частности, отмечают прокуроры, эти угрозы приводят к причинению вреда в реальной жизни — убийствам и самоубийствам, насилию, отравлениям и госпитализации из-за психозов.
- Прокуроры утверждают, что «некоторые» компании уже «возможно» нарушили часть законов, в том числе о защите прав потребителей, о конфиденциальности детей в интернете и другие.
- Среди мер, которые они предлагают ввести — сторонняя проверка ИИ-моделей на признаки галлюцинаций и «бредовых» идей, новые предупреждения о том, что чат-боты могут выдавать «опасную» информацию. Также необходимо разработать правила о сроках обнаружения и информирования о «бредовых» публикациях, и сделать так, чтобы «вредная» информация не выдавалась детям.
- 26 августа 2025 года родители покончившего с собой 16-летнего Адама Рейна подали в суд на OpenAI. Они обвинили компанию в том, что чат-бот «не запустил протокол экстренной помощи», хотя их 16-летний сын Адам «признался» ему, что хочет уйти из жизни «в один из ближайших дней».
- В сентябре 2025 года в ChatGPT добавили родительский контроль. Родитель может управлять настройками детского аккаунта через свою учётную запись.
- После этого OpenAI стала разрабатывать систему «прогнозирования возраста», которая сможет автоматически определять пользователей младше 18 лет — представить её планируют в «ближайшие месяцы».
7 комментариев