Даже самые лучшие LLM-приложения сталкиваются с одной постоянной проблемой — галлюцинациями. Эти ошибочные результаты, когда модели искусственного интеллекта генерируют ложную или вводящую в заблуждение информацию, долгое время считались неотъемлемым недостатком больших языковых моделей (LLM).
Если смотреть на историю развития ИИ, на то, каким он был в своих первых версиях и на то, какой он сейчас, то виден серьёзный прогресс. Наверное яркий пример, о котором знают или слышал все - ChatGPT. Как только он вышел было большой количество галлюцинаций и он частенько давал неправильные ответы, был ограниченный функционал. Сейчас галлюцинации появляются значительно реже и получается, что скоро их не будет вовсе, так же появилась возможность обрабатывать относительно большие объёмы данных и загрузку файлов. Это не может не радовать