Claude дали возможность самому завершать диалог с пользователем
Компания Anthropic внедрила в свои последние модели Claude Opus 4 и 4.1 необычную функцию: теперь ИИ может не только отказать на отдельный запрос, но и полностью завершить чат.
Такое происходит не в обычных ситуациях, а в редких и экстремальных случаях — например, если пользователь настойчиво требует инструкции по насилию или материалы, связанные с сексуальным насилием над детьми. В этом случае разговор закрывается, но у пользователя остаётся возможность открыть новый диалог или переформулировать запрос.
Anthropic объясняет, что функция создавалась не столько для защиты людей от нежелательного контента, сколько для эксперимента в рамках программы AI welfare. Эта исследовательская инициатива посвящена вопросу, должны ли системы в будущем иметь возможность «выходить» из вредных взаимодействий, если тема их морального статуса перестанет быть чисто гипотетической.
Компания подчёркивает, что Claude не обладает сознанием, и речь идёт не о «правах ИИ», а о поиске простых и дешёвых способов встроить в системы возможность дистанцироваться от навязчивого или вредного поведения пользователей. Сейчас функция работает в тестовом режиме, а Anthropic собирает обратную связь.
Для пользователей это не блокировка: модель завершает только конкретный диалог, и всегда можно начать новый. Но сама идея примечательна.Обычно ИИ просто отказываются отвечать на нежелательные запросы, тогда как Anthropic пошла дальше — дала системе возможность полностью прерывать разговор.
Это не меняет того факта, что современные модели остаются инструментами без самосознания, но показывает, что разработчики всё серьёзнее задумываются о том, как может выглядеть взаимодействие с ИИ в будущем.
Как вы считаете, языковым моделям будет полезна такая функция?