галлюцинации ИИ — это безалаберность оператора ЛЛМ. потому что модель хочет писать токены, а если ваша инструкция похожа на сумбурный бред алкоголика, то она и нагенерирует то, что сама считает когерентным.
опыт и понимание где доверять и не доверять ЛЛМ — это профпригодность 21 века. никто не заплатит вам за то, что вы "умеете думать руками"…