Галлюцинации в RAG ловят без LLM-судьи — и это работает лучше
Типичная проблема: вы построили RAG-пайплайн, подключили базу документов, получаете ответы — и вроде всё работает. Пока пользователь не замечает, что LLM уверенно процитировала факт, которого в документах нет. Или, что веселее, прямо им противоречащий.