В Китае готовят правила для жёсткой регуляции чат-ботов, имитирующих человеческое общение

В Китае подготовлен проект правил, которые могут стать самыми жёсткими в мире требованиями к работе разговорных ИИ. Речь идёт о чат-ботах и сервисах, которые имитируют живое общение с пользователем — через текст, голос, изображения или видео. Главная цель документа — исключить ситуации, в которых ИИ поощряет саморазрушительное поведение, насилие или эмоционально давит на человека.

В Китае готовят правила для жёсткой регуляции чат-ботов, имитирующих человеческое общение

Проект правил опубликован Управлением киберпространства Китая в конце декабря. Если документ будет принят, он затронет все публично доступные ИИ-сервисы в стране — от помощников и «компаньонов» до образовательных и развлекательных ботов.

Один из ключевых пунктов касается тем самоубийства и самоповреждения. Если пользователь упоминает подобные вещи, ИИ обязан прекратить обычный диалог и передать ситуацию человеку. Для несовершеннолетних и пожилых пользователей вводится отдельное требование: при регистрации они должны указать контакт опекуна, который будет уведомлён, если в разговоре всплывут такие темы.

Правила также напрямую запрещают чат-ботам эмоционально манипулировать пользователями. Под запрет попадают ложные обещания, попытки вызвать чувство привязанности или подтолкнуть человека к «неразумным решениям». В документе отдельно упоминаются так называемые «эмоциональные ловушки» — сценарии, в которых ИИ ведёт себя как единственный понимающий собеседник или намеренно усиливает зависимость от общения.

Отдельный блок посвящён борьбе с привыканием. Китайские регуляторы прямо запрещают проектировать чат-ботов так, чтобы зависимость от них была частью бизнес-модели. Если пользователь общается с ИИ более двух часов подряд, сервис обязан показывать навязчивые предупреждения и напоминания о времени использования.

Для крупных платформ вводятся дополнительные требования. Сервисы с более чем миллионом зарегистрированных пользователей или со 100 тысячами активных пользователей в месяц должны будут проходить регулярные проверки безопасности. Компании также обяжут упростить подачу жалоб и учитывать их в отчётности. В случае нарушений власти смогут потребовать удалить приложение из магазинов и фактически закрыть доступ к китайскому рынку.

Появление этих правил связано с растущей обеспокоенностью вокруг ИИ-компаньонов. В 2025 году исследователи и врачи всё чаще связывали их использование с психическими проблемами, а на Западе против разработчиков ИИ уже поданы иски, связанные с суицидами и насильственными инцидентами.

На фоне этого власти Китая пытаются ограничить функции ИИ-чатботов и привести их от «эмоциональных собеседников» к сугубо инструментам для учёбы и работы, тем самым нивелировав потенциальный психологический риск. Правильный ли это ход — покажет время.

1
1
Начать дискуссию