Исследователи из Университета Калифорнии в Сан-Диего обнаружили, что GPT-4, несмотря на свою выдающуюся способность к разговорам, не проходит Тьюринговский тест на неразличимость от человеческих ответов. Их исследование также подчеркнуло значимость теста в измерении качества машинного диалога и предупредило о возможных последствиях, если ИИ-модели будут успешно обманывать пользователей.