ИИ чат-боты любят ловить глюки и выдавать всякую чушь. Так массово, что словом 2023 года признали "галлюцинировать". В чем причина такого явления? Является ли генеративный ИИ интеллектом (спойлер - и да, и нет)? И что общего у ChatGPT и копировального аппарата Xerox? Разбираемся, осмысляя базовую логику работы языковых моделей.
С некоторыми людьми когда разговариваешь, они будто тоже архивацию включают. Пересказывают потом дичь, и так уверенно, обоснованно.
Феномен ложной памяти ещё есть. Да много чего.
Есть у психологов такое упражнение, когда историю рассказывают одному человеку, а он по цепочке рассказывает остальным. И там в конце такие галлюцинации, которые ChatGPT и не снились.
Да, имхо в режим архивера люди впадают не всегда (хотя и часто), а языковые модели - только ими и являются
Включают архивацию и начинают подлагивать
каждая речь деда по фамилии начинающаяся на П заканчивается на Н