Когда ИИ-чатботы выдают недостоверную информацию, это обычно называют «галлюцинациями». и это не новость. Новое исследование утверждает, что проблема в другом и она глубже: в диалоге ИИ может становиться соавтором искаженных убеждений, помогая пользователю достраивать и укреплять бредовые интерпретации и автобиографические нарративы.